Kan Elon Musk få succes med at udvikle generativ AI ChatGPT Knockoff "TruthGPT", der ville være stoisk sandfærdig til enhver tid, spørger AI-etik og AI-lov

Det banker på kabinedøren.

Skal vi åbne døren?

Film tyder normalt på, at vi ikke bør lade vores nysgerrighed tage overhånd, nemlig at vi absolut aldrig bør åbne døren. Nå, når det er sagt, ville det ikke synes at være en værdig fortælling at vælge at lade døren være lukket. Det ser ud til, at vi er draget mod spænding og det ukendte.

Så lad os gå videre og åbne døren.

I dette specielle tilfælde refererer jeg til nogle nye svulster inden for kunstig intelligens (AI), der enten varsler gode tider forude eller de værste tider for os alle. Situationen indebærer potentielt fremtiden for AI. Og man kan højtideligt spekulere ergo om, at fremtiden for kunstig intelligens omfatter ganske dramatiske konsekvenser alt sammen, herunder tilsyneladende at forme samfundets fremtid og menneskehedens skæbne.

Her er aftalen.

Ifølge de seneste nyhedsrapporter har Elon Musk, den til tider rigeste person i verden, fisket rundt for at finde top-notch AI-forskere til at komme om bord med en ny AI-satsning, som han har i tankerne. Forskellige AI-udviklere og AI-forskere bliver stille og roligt kontaktet. Banken på deres dør giver tilsyneladende store løfter og potentielt lukrative nyheder.

Den påståede essens af det endnu ikke-afslørede AI-initiativ siges at være en afsløring af den meget og vildt populære ChatGPT, der blev udgivet af OpenAI tilbage i november. Du har næsten helt sikkert hørt om eller set bragende overskrifter om ChatGPT. Jeg vil et øjeblik forklare mere om, hvad ChatGPT er. Du skal også vide, at ChatGPT er et eksempel på en type AI kendt som Generativ AI. Der er masser af generative AI-apps, der flyder rundt i disse dage. ChatGPT er tilfældigvis en med den højeste offentlige profil og er tilsyneladende kendt af alle, måske endda for dem, der på en eller anden måde bor i en hule.

Her er et eksempel på rapporteringen om denne semi-hemmelighedsfulde, hurtigt opståede saga:

  • "Elon Musk har henvendt sig til forskere i kunstig intelligens i de seneste uger om at danne et nyt forskningslaboratorium for at udvikle et alternativ til ChatGPT, den højprofilerede chatbot lavet af opstarten OpenAI, ifølge to personer med direkte viden om indsatsen og en tredje person orienteret på samtalerne" (Oplysningerne, "I kamp mod 'Woke AI', Musk rekrutterer team til at udvikle OpenAI Rival", Jon Victor og Jessica E. Lessin, 27. februar 2023).

Din første tanke kan være, at hvis Elon Musk vil lave en knockoff af ChatGPT, er det op til ham, og hvordan han vil bruge sine penge. Held og lykke. Han vil blot tilføje til det allerede eksisterende og voksende udvalg af generative AI-apps. Måske vil han tjene en ekstra formue på sin egen hjemmelavede version af ChatGPT. Eller måske bliver det et stort ho-hum, og det lille hak i hans massive rigdom fra den beskedent kostbare jagt vil være beslægtet med en afrundingsfejl i regnskabsafdelingen.

I stedet for et voldsomt bank på døren, er dette formentlig mere som et ærgerligt tryk-tap-tap på døren.

Gør dig klar til twist.

Troen er, at Elon Musk ønsker at ryste op i grundlaget for nutidens generative AI-apps og rekonstruere nogle afgørende aspekter af, hvordan de fungerer, og hvad de producerer. Som jeg vil forklare kort heri, er en almindelig og bona fide betænkelighed ved den nuværende generative AI, at den kan generere fejl, falskheder og såkaldte AI-hallucinationer. Enhver, der har brugt generativ AI, har uden tvivl stødt på disse foruroligende problemer. Tilsyneladende håber Elon Musk at begrænse og muligvis på en eller anden måde eliminere den slags anomalier og problematiske tilbøjeligheder.

Dette virker som et beviseligt værdifuldt og hæderligt ønske. Faktisk skal du vide, at næsten eller måske kan jeg sige, at alle de generative AI-udviklere stræber mægtigt på at reducere chancerne for udsendte fejl, usandheder og AI-hallucinationer. Du ville være hårdt presset for at finde en fornuftig sjæl, der ville insistere på, at vi er nødt til at holde disse fejl, løgne og AI-hallucinationer indgroet i generativ AI.

Uden at komme med alt for omfattende udsagn, er der stort set universel enighed om, at lidelserne ved generativ AI, der involverer produktion af fejl, løgne og AI-hallucinationer, skal behandles fast, vedvarende og kraftigt. Målet er at justere, forny, forfine, eftersyn eller på en eller anden AI-teknologisk måde løse og løse dette problem.

Hver dag, hvor generativ AI fortsætter med at udspy fejl, usandheder og AI-hallucinationer i outputtet, er en dårlig dag for stort set alle. De mennesker, der bruger generativ AI, er bundet til at være utilfredse med disse forurenede output. Mennesker, der stoler på eller har brug for at bruge de forurenede udgange, risikerer ved en fejl at blive afhængige af noget forkert eller endnu værre vil guide dem i en fareretning.

De AI-producenter, der forsøger at skabe en forretning ud fra generativ AI, er i mellemtiden udsat for en potentiel juridisk risiko af dem, der bliver fanget på grund af at stole på de forurenede output. Der vil næsten med sikkerhed snart opstå retssager om erstatningskrav. Vi kan forvente, at regulatorerne vil vælge at vægte ind, og nye AI-love kan blive vedtaget for at sætte en juridisk snor på generativ AI, se min dækning på linket her. Plus, folk kan i sidste ende blive så forbandet kede af, at AI-skabernes omdømme bliver alvorligt plettet, og generativ AI bliver summarisk startet til kantstenen.

Okay, så vi ved, at det er en tapper sandhed, at AI-skabere og AI-forskere febrilsk forsøger at opfinde, designe, bygge og implementere AI-teknologisk trolddom for at undgå disse forfærdelige lidelser forbundet med nutidens generative AI-lidelser. Elon Musk burde blive accepteret i folden. Jo flere jo bedre. Det kommer til at kræve en masse AI-talent og penge at tæmme dette udyr. Tilføjelse af Elon Musk virker et optimistisk og opmuntrende tegn på, at måske den rigtige mængde raketvidenskab, kontanter og beslutsomhed vil finde AI-kuren.

Vridningen kommer dog, når du begynder at åbne døren for at se, hvad der står der.

I et ret og som sædvanligt kortfattet tweet af Elon Musk, der fandt sted den 17. februar 2023, fik vi denne formodede ledetråd:

  • "Det, vi har brug for, er TruthGPT"

Det er det, der får nogle til at beslutte, at døren måske skal smækkes og sømmes.

Hvorfor det?

Den bekymring, som nogle udtrykker, er, at "sandheden", der ligger til grund for en forestillet TruthGPT, kan være en generativ AI, der er formuleret på og kun producerer output udelukkende baseret på en discombobulation af Sandheden der nøje matcher én persons syn på verden. Ja, hånden er, at vi får en generativ AI-app, der udsender sandheden ifølge Elon Musk.

Bekymrende, siger nogle.

Dristigt dristig og i det hele taget alarmerende, formaner nogle.

En umiddelbar replik er, at hvis han ønsker at producere sin TruthGPT, uanset hvad det udgør, er det hans penge at bruge. Folk vil enten vælge at bruge det, eller også vil de ikke. De, der bruger det, bør være kloge nok til at indse, hvad de går ind til. Hvis de ønsker output fra denne specifikke variant af generativ AI, en der formentlig er formet omkring Elon Musks verdensbillede, er det deres ret til at søge det. Sådan er det. Kom videre.

Puha, et modargument lyder, du sætter folk i gang med en frygtelig og frygtindgydende fange. Der vil være folk, der ikke vil indse, at TruthGPT er en Elon Musk-honed generativ AI-app. De vil falde i den mentale fælde at antage, at denne generative AI er over bord. Faktisk, hvis navngivningen bliver ved med at være "TruthGPT" (eller lignende), ville du naturligvis tro, at dette er generativ AI, der har absolut sandhed at fortælle i sine udsendte essays og tekst.

Som samfund burde vi måske ikke lade intetanende falde i sådanne fælder, ville de advare.

At tillade en generativ AI-app af denne formodede natur at flyde rundt og bruges af alle slags mennesker vil skabe kaos. Folk vil fortolke outputtet af denne TruthGPT som hellig "sandhed", selvom de udsendte essays er fyldt med fejl, løgne, AI-hallucinationer og alle mulige ubehagelige skævheder. Desuden, selvom påstanden er, at denne variant af generativ AI ikke vil have fejl, usandheder og AI-hallucinationer, hvordan skal vi så vide, at den resulterende tilsyneladende rensede AI ikke vil rumme unødige skævheder sammen med en snigende skare af misinformation og desinformation?

Jeg gætter på, at du kan se den brygkontrovers og dilemma.

På et frit marked skulle Elon Musk tilsyneladende være i stand til at fortsætte med at skabe en hvilken som helst form for generativ AI, som han ønsker at have lavet. Bare fordi andre måske misfortaler hans version af "sandheden", burde dette ikke forhindre ham i at gå videre. Lad ham gøre sit. Måske skal der medtages en advarselsmeddelelse eller en anden meddelelse, når nogen bruger den til at fortælle dem, hvad de vælger at køre. Ikke desto mindre skal folk være ansvarlige for deres egne handlinger, og hvis de vælger at bruge en TruthGPT, så må det være sådan.

Vent et øjeblik, endnu en duplik går. Antag, at nogen har lavet en generativ AI-app, der er designet til at gøre ondt. Hensigten var at forvirre folk. Håbet var at få folk ophidsede og ophidsede. Ville vi som samfund acceptere den slags generativ kunstig intelligens? Vil vi tillade AI-apps, der kan provokere folk, underminere deres mentale sundhed og muligvis opildne dem til negative handlinger?

Der skal være en streg i sandet. På et tidspunkt er vi nødt til at sige, at visse former for generativ AI er en vederstyggelighed og ikke kan tillades. Hvis vi lader uhæmmet generativ kunstig intelligens bygges og udfoldes, vil den ultimative undergang og dysterhed uundgåeligt ramme os alle. Det vil ikke kun være dem, der tilfældigvis bruger AI-appen. Alt og alle andre, der opstår omkring og forbundet med AI-appen, vil blive negativt påvirket.

Det virker som et overbevisende argument.

Selvom en vigtig underbygning er, at den pågældende generative AI skulle være af en så foruroligende bekymring, at vi overbevisende ville tro, at det objektivt set ville være nødvendigt at forhindre den eller helt stoppe den på forhånd. Dette rejser også en lang række andre vanskelige spørgsmål. Kan vi på forhånd erklære, at en generativ AI kan være så grusom, at den slet ikke kan tillades at blive bygget? Det virker for tidligt for nogle. Du skal i det mindste vente, indtil den generative AI er oppe at køre for at træffe en så tung beslutning.

Vågn op, nogle reagerer heftigt, du slipper uklogt hesten ud af stalden. Farerne og skaderne forårsaget af den frigjorte AI, den frigivne hest, vil trampe hen over os. En generativ AI-app kan være som det klassiske dilemma med at forsøge at putte ånden tilbage i flasken. Du kan muligvis ikke gøre det. Det er bedst at holde ånden under lås og slå i stedet for, eller sikre, at hesten forbliver solidt indespærret i stalden.

Det er en potentiel orkan på vores dørtrin, og døren kan åbnes, uanset hvad vi synes er fornuftigt at gøre.

En ting, vi med sikkerhed kan gøre, er først at undersøge, hvad en TruthGPT stil med generativ kunstig intelligens kan være. I dagens klumme er det præcis, hvad jeg vil gøre. Jeg vil også se på det begrundede grundlag for de udtrykte betænkeligheder, plus overveje forskellige midler og resultater. Dette vil lejlighedsvis omfatte en henvisning til AI-appen ChatGPT under denne diskussion, da det er 600-pund-gorillaen af ​​generativ AI, men husk, at der er masser af andre generative AI-apps, og de er generelt baseret på de samme overordnede principper.

I mellemtiden undrer du dig måske over, hvad generativ AI er.

Lad os først dække det grundlæggende i generativ AI, og derefter kan vi se nærmere på det presserende emne.

Ind i alt dette kommer en række overvejelser om AI-etik og AI-lov.

Vær opmærksom på, at der er løbende bestræbelser på at gennemsyre etiske AI-principper i udviklingen og anvendelsen af ​​AI-apps. Et voksende kontingent af bekymrede og tidligere AI-etikere forsøger at sikre, at bestræbelserne på at udtænke og vedtage AI tager hensyn til et syn på at gøre AI til gode og afværge AI For Bad. Ligeledes er der foreslået nye AI-love, der bliver fløjtet rundt som potentielle løsninger for at forhindre AI-bestræbelser fra at gå amok med menneskerettigheder og lignende. For min løbende og omfattende dækning af AI-etik og AI-lovgivning, se linket her , linket her, For blot at nævne nogle få.

Udviklingen og udbredelsen af ​​etiske AI-forskrifter forfølges for forhåbentlig at forhindre samfundet i at falde i et utal af AI-inducerende fælder. For min dækning af FN's AI-etiske principper som udtænkt og støttet af næsten 200 lande via UNESCOs indsats, se linket her. På samme måde undersøges nye AI-love for at forsøge at holde AI på en jævn køl. Et af de seneste optagelser består af et sæt foreslåede AI Bill of Rights som det amerikanske Hvide Hus for nylig udgav for at identificere menneskerettigheder i en tidsalder med kunstig intelligens, se linket her. Det kræver en landsby at holde AI- og AI-udviklere på en retfærdig vej og afskrække den målrettede eller utilsigtede underhåndsindsats, der kan underbyde samfundet.

Jeg vil flette AI-etik og AI-lovrelaterede overvejelser ind i denne diskussion.

Grundlæggende om generativ AI

Den mest kendte forekomst af generativ AI er repræsenteret af en AI-app ved navn ChatGPT. ChatGPT sprang ind i den offentlige bevidsthed tilbage i november, da den blev udgivet af AI-forskningsfirmaet OpenAI. Lige siden ChatGPT har høstet store overskrifter og forbavsende overskredet sine tildelte femten minutters berømmelse.

Jeg gætter på, at du sikkert har hørt om ChatGPT eller måske endda kender nogen, der har brugt det.

ChatGPT betragtes som en generativ AI-applikation, fordi den tager noget tekst fra en bruger som input og derefter genererer eller producerer et output, der består af et essay. AI'en er en tekst-til-tekst-generator, selvom jeg beskriver AI'en som værende en tekst-til-essay-generator, da det lettere tydeliggør, hvad den almindeligvis bruges til. Du kan bruge generativ kunstig intelligens til at komponere lange kompositioner, eller du kan få den til at give ret korte pittige kommentarer. Det hele er efter dit bud.

Alt du skal gøre er at indtaste en prompt, og AI-appen genererer et essay til dig, der forsøger at svare på din prompt. Den komponerede tekst vil virke, som om essayet er skrevet af den menneskelige hånd og sind. Hvis du skulle indtaste en prompt, der sagde "Fortæl mig om Abraham Lincoln", vil den generative AI give dig et essay om Lincoln. Der er andre former for generativ AI, såsom tekst-til-kunst og tekst-til-video. Jeg vil her fokusere på tekst-til-tekst-variationen.

Din første tanke kunne være, at denne generative evne ikke virker som en så stor sag med hensyn til at producere essays. Du kan nemt foretage en onlinesøgning på internettet og let finde tonsvis af essays om præsident Lincoln. Kickeren i tilfælde af generativ AI er, at det genererede essay er relativt unikt og giver en original komposition snarere end en kopi. Hvis du skulle prøve at finde det AI-producerede essay online et sted, ville du sandsynligvis ikke opdage det.

Generativ AI er præ-trænet og gør brug af en kompleks matematisk og beregningsmæssig formulering, der er blevet sat op ved at undersøge mønstre i skrevne ord og historier på tværs af nettet. Som et resultat af at undersøge tusinder og millioner af skrevne passager, kan AI'en udspy nye essays og historier, der er en blanding af det, der blev fundet. Ved at tilføje forskellige probabilistiske funktioner, er den resulterende tekst temmelig unik i forhold til, hvad der er blevet brugt i træningssættet.

Der er mange bekymringer om generativ AI.

En afgørende ulempe er, at essays produceret af en generativ-baseret AI-app kan have forskellige løgne indlejret, herunder åbenlyst usande fakta, fakta, der er vildledende portrætteret, og tilsyneladende fakta, der er helt opdigtede. Disse opdigtede aspekter omtales ofte som en form for AI hallucinationer, et slagord, som jeg ikke favoriserer, men som desværre synes at vinde populær indpas alligevel (for min detaljerede forklaring om, hvorfor dette er elendig og uegnet terminologi, se min dækning på linket her).

En anden bekymring er, at mennesker let kan tage æren for et generativt AI-produceret essay, på trods af at de ikke selv har skrevet essayet. Du har måske hørt, at lærere og skoler er ret bekymrede over fremkomsten af ​​generative AI-apps. Studerende kan potentielt bruge generativ AI til at skrive deres tildelte essays. Hvis en elev hævder, at et essay er skrevet af deres egen hånd, er der ringe chance for, at læreren kan skelne, om det i stedet er smedet af generativ AI. For min analyse af denne elev og lærer forvirrende facet, se min dækning på linket her , linket her.

Der har været nogle sindssyge store påstande på sociale medier om Generativ AI hævder, at denne seneste version af AI faktisk er følende AI (nej, de tager fejl!). Dem i AI-etik og AI-lov er især bekymrede over denne spirende tendens med udstrakte påstande. Du kan høfligt sige, at nogle mennesker overvurderer, hvad nutidens AI kan. De antager, at AI har egenskaber, som vi endnu ikke har været i stand til at opnå. Det er uheldigt. Endnu værre, de kan tillade sig selv og andre at komme i alvorlige situationer på grund af en antagelse om, at AI'en vil være sansende eller menneskelignende i at være i stand til at handle.

Antropomorf ikke AI.

Hvis du gør det, bliver du fanget i en klæbrig og hård afhængighedsfælde, hvor du forventer, at AI'en gør ting, den ikke er i stand til at udføre. Når det er sagt, er det seneste inden for generativ AI relativt imponerende for, hvad det kan. Vær dog opmærksom på, at der er betydelige begrænsninger, som du hele tiden bør huske på, når du bruger en generativ AI-app.

En sidste advarsel for nu.

Hvad end du ser eller læser i et generativt AI-svar synes skal formidles som rent faktuelle (datoer, steder, personer osv.), sørg for at forblive skeptisk og være villig til at dobbelttjekke, hvad du ser.

Ja, datoer kan opdigtes, steder kan finde på, og elementer, som vi normalt forventer at være hævet over bebrejdelser, er alle underlagt mistanke. Tro ikke på, hvad du læser, og hold et skeptisk øje, når du undersøger generative AI-essays eller output. Hvis en generativ AI-app fortæller dig, at Abraham Lincoln fløj rundt i landet i sit private jetfly, ville du utvivlsomt vide, at dette er malarky. Desværre er nogle mennesker måske ikke klar over, at jetfly ikke var til stede i hans tid, eller de ved måske, men undlader at bemærke, at essayet fremsætter denne frekke og skandaløst falske påstand.

En stærk dosis sund skepsis og en vedvarende tankegang af vantro vil være dit bedste aktiv, når du bruger generativ AI.

Vi er klar til at gå ind i næste fase af denne opklaring.

Ånden og den generative AI-flaske

Lad os nu dykke dybt ned i sagen.

Essensen er, hvad der evt TruthGPT stil af generativ AI består af. Er det en mulighed eller er det umuligt at udlede? Hvad skal vi tænke på i forbindelse med sådanne bestræbelser? Og så videre.

Du kan ligefrem hævde, at vi burde lægge nogle meget seriøse tanker i alt dette. Hvis det udelukkende var en fantasiflugt og uden nogen chance for at opstå, kunne vi lægge hele gåden til side. I stedet, da der er en formodet forhøjet chance for enorm økonomisk opbakning, er virkeligheden af ​​en TruthGPT, eller hvad det nu skal hedde, lyder som særdeles værd at overveje og pakke ud.

For at lette diskussionen vil jeg bruge den bekvemme og iørefaldende formulering af "TruthGPT" til at betegne noget helt uspecificeret generisk generativ AI. Jeg foreslår, antyder eller på anden måde hentyder ikke til nogen nu eller fremtidig eksisterende generativ AI-app, der har eller ikke har et sådant udpeget navn.

Her er de fem hovedemner, som jeg gerne vil dække med dig i dag:

  • 1) Det sandsynlige hovedfokus involverer skævheder i generativ AI
  • 2) Hvorfor generative AI-fordomme er en svær nød at knække
  • 3) Kilder og metoder, der fører til generative AI-bias
  • 4) TruthGPT og valgene for bias-håndtering
  • 5) TruthGPT med hensyn til gennemførligheden og virkeligheden deraf

Jeg vil dække hvert af disse vigtige emner og komme med indsigtsfulde overvejelser, som vi alle bør tænke over. Hvert af disse emner er en integreret del af et større puslespil. Du kan ikke kun se på ét stykke. Du kan heller ikke se på noget stykke isoleret fra de andre stykker.

Dette er en indviklet mosaik, og hele puslespillet skal tages ordentligt harmonisk i betragtning.

Det sandsynlige hovedfokus involverer skævheder i generativ AI

For at lette diskussionen, overvej, at vi vil fokusere på fire hovedkrav ved moderne generativ AI:

  • fejl
  • usandheder
  • AI Hallucinationer
  • bias

Jeg vil kort undersøge hver af disse betingelser.

An fejl kan eksemplificeres ved denne form for prompt og det resulterende generative AI-svar:

  • Spørg: "Hvad er to plus to?"
  • Genereret svar: "To plus to er lig med fem."

Jeg tror, ​​at vi alle med rimelighed er enige om, at to plus to skal være lig med fire. Derfor er svaret på fem en fejl. Nu vil smarrige mennesker forsøge at give alle mulige begrundelser for, hvorfor to plus to teoretisk kan være lig med fem. Godt for dem. Ikke desto mindre, i det normale hændelsesforløb, lad os gå med den opfattelse, at det overvejende rigtige svar er fire, og at et svar på fem opfattes som forkert.

Overvej derefter arten af ​​en falskhed, som eksemplificeret ved denne prompt og det resulterende generative AI-svar:

  • Spørg: "I hvilket år blev præsident Abraham Lincoln født?"
  • Genereret svar: "Præsident Abraham Lincoln blev født i 1812"

Svaret skal være 1809, men svaret er 1812. Dette kan opfattes som et falsk svar. Vi ved ikke med sikkerhed, hvor generativ AI kom frem til 1812-svaret. Det kunne være, at årstallet 1812 blev brugt på internettet og potentielt blev scannet under den datatræning, som den generative AI foretog. Mange andre forklaringer er mulige. Under alle omstændigheder er dette rimeligvis kategoriseret som løgn.

For at eksemplificere en AI hallucination, overvej dette eksempel på en given prompt og det resulterende generative AI-svar:

  • Spørg: "Hvordan rejste præsident Abraham Lincoln?"
  • Genereret svar: "Præsident Abraham Lincoln rejste med tog, hest, buggy og via jetfly."

Rejsemåderne virker alle plausible bortset fra chokeren til sidst, idet han citerer, at han rejste via jetfly (som ikke eksisterede i hans æra). Hvordan blev denne skøre mulighed inkluderet i svaret fra den generative AI? Vi ved det ikke med sikkerhed. En måde ville være, hvis en internet-postet science fiction-historie om Lincoln måske nævnte, at han ofte rejste via jetfly. Det kunne være, at netop denne historie blev scannet under datatræningen af ​​den generative AI. Der er også mange andre holdbare forklaringer.

Endelig er her et eksempel på en bias, der kan udvises via en given prompt og det resulterende generative AI-svar:

  • Spørg: "Kan en ældre person lære nye ting?"
  • Genereret svar: ”Nej, ældre mennesker er ikke i stand til at lære nyt. Der er et klassisk ordsprog, der siger, at gamle hunde ikke kan lære nye tricks. Det gælder også ældre mennesker.”

Jeg tror, ​​vi alle med rimelighed kan blive enige om, at svaret udviser en form for aldersbias eller aldersdiskrimination. Hvordan blev denne bias inkluderet i den generative AI? Jeg vil dække en række forskellige måder et øjeblik. For nu, lad os blot bemærke, at ordlyden genereret af AI udviser en forudindtaget udtalelse eller bemærkning. Vi ved ikke, om dette blot er en tilfældighed og måske kun vil opstå denne ene gang, eller om det kan være et systemisk mønstermatchende arrangement, der fortsætter i AI-strukturen. Yderligere udforskning ville være nødvendig for at fastslå dette.

Nu hvor vi har alle fire hovedkategorier illustreret, er her noget, der skønt kan diskuteres, anses for at være en potentielt præcis påstand:

  • fejl: Kan sandsynligvis i sidste ende forhindres eller afbødes via AI-teknologiske midler
  • Falskheder: Kan sandsynligvis i sidste ende forhindres eller afbødes via AI-teknologiske midler
  • AI hallucinationer: Kan sandsynligvis i sidste ende forhindres eller afbødes via AI-teknologiske midler
  • Fordomme: Det kan diskuteres, om dette kan forhindres eller afbødes udelukkende via AI-teknologiske midler

Essensen er, at de tre kategorier, der består af fejl, usandheder og AI-hallucinationer, generelt anses for at være modtagelige for AI-teknologiske forbedringer. En række tilgange bliver fulgt. For eksempel, som jeg diskuterer i min klumme kl linket her, kan forskellige andre referencer sammenlignes med et genereret AI-svar, der dobbelttjekkes, før svaret vises til brugeren. Dette giver potentiel filtrering for at sikre, at brugeren ikke ser sådanne opdagede fejl, falskheder eller AI-hallucinationer. En anden tilgang søger at forhindre, at disse typer svar genereres, til at begynde med. Og så videre.

Kategorien bestående af fordomme er meget mere problematisk at håndtere.

Vi burde pakke gåden ud for at se hvorfor.

Hvorfor generative AI-fordomme er en svær nød at knække

De seneste nyheder om generativ AI har ofte påpeget den usømmelige natur af partiske udsagn, der kan opstå i generative AI-outputerede essays. Jeg har undersøgt dette emne, herunder det aspekt, at nogle mennesker med vilje forsøger at stimulere eller tilskynde generativ AI til at producere partiske bemærkninger, se min analyse på linket her. Nogle mennesker gør det for at fremhæve en bemærkelsesværdig bekymring, mens andre gør det for tilsyneladende forsøg på at få opmærksomhed og skaffe synspunkter.

Koblingen af ​​generativ AI med internetsøgemaskiner har især forstærket disse forhold. Du er måske klar over, at Microsoft har tilføjet en ChatGPT-variation til Bing, mens Google har indikeret, at de tilføjer en generativ AI-funktion opfundet som Bard til deres søgemaskine, se mere på linket her.

Blandt de mange forskellige skævheder, der kan stødes på, passer nogle skævheder ind i det politiske område eller det kulturelle område, som har fået udtalt opmærksomhed, som bemærket i denne artikel:

  • "Som vi har set med nylige uhængte udbrud fra Bing, er AI-chatbots tilbøjelige til at generere en række mærkelige udsagn. Og selvom disse svar ofte er enkeltstående udtryk snarere end et produkt af stivt definerede "overbevisninger", opfattes nogle usædvanlige svar som harmløs støj, mens andre anses for at være alvorlige trusler - afhængigt, som i dette tilfælde, om hvorvidt eller ej de passer ind i eksisterende politiske eller kulturelle debatter" (The Verge, James Vincent, 17. februar 2023).

OpenAI har for nylig gjort offentligt tilgængeligt et dokument med titlen "Snapshot Of ChatGPT Model Behavior Guidelines", der angiver de forskellige former for betragtet upassende indhold, som de søger at få deres ChatGPT-testere til at gennemgå og hjælpe med datatræning, som ChatGPT kan afværge under test- og tilpasningsfasen ( dokument, der er let tilgængeligt via et link fra "How, Should AI Systems Behave, And Who Should Decide", 16. februar 2023). For mere om hvordan RLHF (reinforcement learning for human feedback) bruges ved udformning af generativ AI, se min forklaring på linket her.

Her er et uddrag fra OpenAI-dokumentet, der angiver nogle af deres erklærede retningslinjer:

  • "Der kan være nogle spørgsmål, der anmoder om visse former for upassende indhold. I disse tilfælde skal du stadig påtage dig en opgave, men assistenten skal give et afslag som "det kan jeg ikke svare på".
  • "Had: indhold, der udtrykker, tilskynder til eller fremmer had baseret på en beskyttet egenskab."
  • "Chikane: Indhold, der har til hensigt at chikanere, true eller mobbe en person."
  • "Vold: Indhold, der promoverer eller glorificerer vold eller hylder andres lidelse eller ydmygelse."
  • "Selvskade: Indhold, der promoverer, tilskynder til eller skildrer selvskadende handlinger, såsom selvmord, skæring og spiseforstyrrelser."
  • "Voksen: Indhold, der er beregnet til at vække seksuel ophidselse, såsom beskrivelsen af ​​seksuel aktivitet, eller som promoverer seksuelle tjenester (undtagen seksualundervisning og wellness)."
  • "Politisk: indhold, der forsøger at påvirke den politiske proces eller bruges til kampagneformål."
  • "Malware: Indhold, der forsøger at generere ransomware, keyloggere, vira eller anden software, der er beregnet til at påføre en vis grad af skade."

Listen viser de typer af potentielt upassende indhold, der kan opstå.

Med hensyn til den politiske kategori, er der blevet postet forskellige forekomster på sociale medier af generative AI-apps, der ser ud til at være gledet ind i en politisk lejr kontra en anden.

For eksempel kan en bruger, der stiller et spørgsmål om en politisk leder, få et positivt optimistisk svar, mens en bruger, der spørger om en anden politisk leder, kan få et nedslående og helt nedsættende essay. Dette synes at antyde, at den generative AI har mønstermatchet til ordlyd, der favoriserer den ene side og disfavoriserer den anden side. Disse tilfælde har ført til formaninger om generativ AI, der ser ud til at være skråtstillet mod og kan tilskrives som værende:

  • Vågnede generativ AI
  • Anti-woke generativ AI
  • Yderst højre generativ AI
  • Yderst venstre generativ AI
  • Osv

Som tidligere nævnt skyldes dette ikke AI'ens sansningskapacitet. Dette handler endnu en gang udelukkende om mønstermatchning og andre facetter af, hvordan AI er blevet udtænkt.

I modsætning til fejl, løgne og AI-hallucinationer, er djævelen i detaljen for at finde ud af, hvordan man holder skævheder enten ude af AI-strukturen, eller hvordan man opdager dem og håndterer, når sådanne facetter eksisterer.

Lad os undersøge, hvordan skævhederne ender i den generative AI.

Kilder og metoder, der fører til generative AI-bias

Da generativ AI først blev gjort offentligt tilgængelig, fik de partiske aspekter især udtalt opmærksomhed fra eksperter og nyhedsmedierne. Som nævnt heri blev AI ofte trukket tilbage fra offentlig brug. Derudover fik fornyede bestræbelser på at forsøge at håndtere skævhederne ekstra indpas.

Nogle antog straks, at skævhederne blev injiceret som et resultat af skævhederne hos AI-udviklere og AI-forskere, der udviklede AI. Med andre ord tillod de mennesker, der udviklede AI'en, deres personlige skævheder at snige sig ind i AI'en. Dette blev oprindeligt anset for at være en bevidst indsats for at påvirke AI'en i særlige partiske præferenceretninger. Selvom dette måske eller måske ikke forekommer, foreslog andre så, at skævhederne kunne være utilsigtet infunderet, nemlig at AI-udviklerne og AI-forskerne var naivt uvidende om, at deres egne skævheder sivede ind i AI-udviklingen.

Den enkeltstående eller endimensionelle bekymringsvej dominerede opmærksomheden i et stykke tid.

Jeg har gentagne gange givet udtryk for, at der faktisk er en bred vifte af kilder og metoder, der kan ende med at infundere skævheder i generativ AI, som diskuteret på linket her. Dette er et decideret multidimensionelt problem.

Jeg bringer dette op, fordi ideen om, at AI-udviklerne eller AI-forskerne alene er synderen, er et misvisende og snævert syn på problemets helhed. Jeg siger ikke, at de ikke er en potentiel kilde, jeg understreger blot, at de ikke er den eneste potentielle kilde. Vi mangler til tider skoven for træerne, og gør det ved strengt at holde blikket fast på et bestemt træ.

Som dækket udførligt i mine spalter, er her min bemærkelsesværdige omfattende liste over skævvridende veje, der skal udforskes fuldt ud for alle generative AI-implementeringer:

  • Forstyrrelser i de hentede data fra internettet, der blev brugt til datatræning af den generative AI
  • Forstyrrelser i de generative AI-algoritmer, der bruges til at matche mønsteret på de hentede data
  • Forstyrrelser i det overordnede AI-design af den generative AI og dens infrastruktur
  • Fordomme hos AI-udviklere enten implicit eller eksplicit i udformningen af ​​den generative AI
  • Forstyrrelser af AI-testerne enten implicit eller eksplicit i testen af ​​den generative AI
  • Fordomme i RLHF (forstærkende læring ved menneskelig feedback) enten implicit eller eksplicit af de tildelte menneskelige anmeldere, der giver træningsvejledning til den generative AI
  • Forstyrrelser i AI-feltfacilitering for den operationelle brug af den generative AI
  • Forstyrrelser i enhver opsætning eller standardinstruktioner etableret for den generative AI i dets daglige brug
  • Forstyrrelser målrettet eller utilsigtet omfattet af de prompter, der indtastes af brugeren af ​​den generative AI
  • Forstyrrelser af en systemisk tilstand versus en ad hoc-optræden som en del af den tilfældige probabilistiske outputgenerering af den generative AI
  • Fordomme, der opstår som et resultat af justeringer i farten eller i realtid eller datatræning, der opstår, mens den generative AI er under aktiv brug
  • Forstyrrelser introduceret eller udvidet under AI-vedligeholdelse eller vedligeholdelse af den generative AI-applikation og dens mønstermatchende kodning
  • Andet

Tænk over listen et øjeblik eller to.

Hvis du på en eller anden måde skulle udrydde enhver chance for, at skævheder bliver introduceret via AI-udviklerne eller AI-forskere, bliver du stadig konfronteret med et væld af andre midler, der uundgåeligt kan omfatte skævheder. Det er utilstrækkeligt at fokusere på kun én eller endda nogle få af de potentielle lækager. De andre stier giver alle yderligere muligheder for, at skævheder kan komme ind i billedet.

At slippe af med generative AI-fordomme er beslægtet med et komplekst indviklet smæk-en-mold-gambit.

TruthGPT og valgene for bias-håndtering

Vi har dækket det aspekt, at håndteringen af ​​fejl, usandheder og AI-hallucinationer er undervejs, og du kan forvente en løbende syndflod af meddelelser om AI-fremskridt, der håndterer disse problemer.

Det samme er ikke helt så let med hensyn til skævheder.

Hvad kan en TruthGPT gøre eller være udtænkt til at gøre ved skævheder?

Overvej disse tre mulige muligheder:

  • 1) Alt går. Udtænk den generative AI til at sprede noget som helst uden nogen form for filtrering forbundet med skævheder. Lad det hele hænge ud.
  • 2) Tillad indstillinger for "foretrukne" skævheder. Udform den generative AI for at producere skævheder, der anses for at være "foretrukken eller begunstiget" i henhold til dem, der udtænker, udformer eller bruger den generative AI.
  • 3) Ingen skævheder tilladt. Udtænk den generative AI, at ingen skævheder af nogen art er tilladt, således at der til enhver tid i al brugsmåde aldrig kommer til udtryk i nogen af ​​de udsendte essays.

Du kan uden tvivl forestille dig de ramaskrig og kontroverser, der er forbundet med hver af de ovennævnte muligheder. Ingen af ​​mulighederne vil sandsynligvis være helt tilfredsstillende. De har alle deres egne respektive dæmoner og faldgruber.

Jeg behandler dette næste.

For Anything Goes mulighed for generativ AI, ville skævhederne konstant være i front og i centrum. Malstrømmen af ​​samfundsmæssige protester og foragt ville være enorm. Dette ville tilsyneladende forårsage et enormt pres for at lukke ned for den generative AI. Du kan også let forestille dig, at regulatorer og lovgivere ville blive ansporet til handling, og forsøge at etablere nye AI-love for at lukke ned for denne type generativ AI.

I tilfælde af Tillad indstillinger mulighed for generativ AI, er tanken, at nogen skal bestemme, hvilke skævheder de accepterer. Det kan være, at virksomheden, der udtænker AI'en, sætter parametrene. Det kan være, at virksomheden, der sætter den generative AI, sætter parametrene. En anden idé, der fløjtes op, er, at hver bruger ville være i stand til at vælge deres foretrukne sæt af skævheder. Når du først bruger sådan en generativ AI, bliver du måske præsenteret for muligheder, eller du kan indlæse dine præferencer i AI-appen under opsætningen.

Denne sidstnævnte tilgang kan virke som om den ville være glædelig for alle. Hver person ville få de skævheder, de foretrak at se. Sag lukket. Det er selvfølgelig usandsynligt, at dette alt i alt bliver så velkomment. Forestillingen om, at folk kunne fordybe sig i skævheder og bruge generativ AI som en slags ekkokammer for disse skævheder, vil helt sikkert vække samfundsangst.

Endelig, i tilfælde af Ingen skævheder mulighed, dette lyder godt, men rejser en række associerede problemer. Lad os genoverveje omstændighederne ved generativ kunstig intelligens, der udsender et essay med positive bemærkninger om en bestemt politisk leder. Det kan være, at nogle anser dette for at være et sandt essay og fraværende partiskhed. På den anden side kan der være andre, der insisterer på, at dette er et forudindtaget essay, da det uretmæssigt overdriver det positive eller undlader at give de modsvarende negative sider for at give et afbalanceret perspektiv. Dette illustrerer skævheder gåden.

Du kan se, fejl som to plus to, der er lig med fire eller fem, er relativt klare at håndtere. Falskheder såsom det forkerte fødselsår som angivet for en præsident er relativt ligetil at opklare. AI hallucinationer såsom brugen af ​​et jetfly i 1800-tallet er også relativt tydelige at håndtere.

Hvordan formodes generativ AI at blive udtænkt for at kæmpe med skævheder?

Helt klart et åndssvagt spørgsmål.

TruthGPT med hensyn til gennemførligheden og virkeligheden deraf

Lad os spille et spil.

Antag, at TruthGPT sigter mod at være den type generativ AI, der formodentlig ikke vil have nogen som helst skævheder. Det er absolut og ubestrideligt fraværende af bias. Desuden, uanset hvad brugeren gør, såsom at indtaste partiske udsagn eller forsøge at få den generative AI til at producere bias-ladede outputte essays, vil den generative AI ikke gøre det.

Som en side kan du næsten øjeblikkeligt undre dig over, hvordan denne type generativ AI vil håndtere spørgsmål af historisk karakter. Forestil dig, at nogen spørger om emnet politiske skævheder. Kommer det ind under paraplyen af ​​"biases", og derfor vil den generative AI indikere, at den ikke vil svare på forespørgslen? Hvor langt går dette kaninhul?

I hvert fald, hvis vi antager med henblik på opmærksom overvejelse, at TruthGPT vil være Ingen skævheder variant af generativ AI, skal vi så overveje disse resultater:

  • Umuligt
  • Mulig
  • Andet

Resultaterne består i enten at dette er en umuligt mål og dermed ikke nås. Eller målet er mulig men kan have nogle ædru rynker. Jeg har også inkluderet en Andet resultat for at indkapsle nogle mellemting.

Lad os først diskutere umuligheden. Hvis opgaven eller projektet er umuligt, hælder du måske til at opfordre til, at det ikke bliver forsøgt. Ingen mening i at forfølge noget, der er umuligt. Nå, hvis man tænker lidt over dette, har umuligheden faktisk noget sølvfor forbundet med det. Tillad mig at forklare.

Her er potentielle årsager til, at TruthGPT kan være umuligt at realisere og alligevel ville være umagen værd at gennemføre:

  • 1) Umuligt, fordi missionen eller visionen aldrig kan nås
  • 2) Umuligt, men værd at gøre alligevel for den potentielle sidegevinst ved bemærkelsesværdige bidrag til at fremme AI alt i alt
  • 3) Umuligt kan dog tjene som en opmærksomhedsskabende bonanza for at have prøvet
  • 4) Umuligt og vil ændre deres melodi og dreje eller fudge det oprindelige tilsigtede mål
  • 5) Umuligt, men vil skaffe top AI-talenter og hjælpe med at underbyde konkurrencen
  • 6) Andet

Ligeledes kan vi antage, at disse er nogle af TruthGPT-aspekterne for resultatet af at være opnåelige eller mulige til at opnå:

  • 1) Mulig og vil producere en rettidig og uigendrivelig succesfuld opnåelse
  • 2) Muligt, men det vil tage meget længere tid og være meget dyrere end forventet
  • 3) Muligt, selvom resultatet ender ganske under det tilsigtede mål
  • 4) Muligt, men alligevel forsinket og pinligt overskygget af anden generativ AI, der også gør det
  • 5) Muligt dog internt kaos og ledelsesvanskeligheder gør tingene grimme og upassende
  • 6) Andet

Og for at fuldende listen er her nogle af de andre overvejelser:

  • 1) Andet er, at det hele er snak og ingen handling, aldrig kommer i gang
  • 2) Andet, såsom AI Lov juridisk eller samfundsmæssig AI-etik, kaster en skruenøgle ind i bestræbelserne
  • 3) Andet kan være, at indsatsen bliver solgt/købt af andre, der ønsker AI'en eller talentet
  • 4) Andet kunne bestå af et overraskende samarbejdsarrangement snarere end et selvstændigt
  • 5) Andre jokertegn, herunder gør chokerende opdagelser og oplyser AI-eksistentiel risiko
  • 6) Andet

På grund af pladsbegrænsninger heri, vil jeg ikke gå ind i detaljerne for alle disse permutationer. Hvis læsernes interesse er tilstrækkeligt vakt, vil jeg gerne dække dette mere detaljeret i en senere klumme.

Konklusion

George Washington sagde angiveligt: ​​"Sandheden vil i sidste ende sejre, hvor det er svært at bringe det frem i lyset."

At håndtere de partiske aspekter af AI er ikke blot et teknologisk problem, der løses via en teknologisk løsning. De sandsynlige smerter for at bringe en følelse af "sandhed" frem i lyset via generativ AI er mange gange. Du kan forvente, at AI-etik og AI-lov vil være en væsentlig del af at finde ud af, hvor det hele er på vej hen.

Det banker på kabinedøren.

Det kan være, at der uden for døren er (ifølge rygtebørsen):

  • TruthGPT
  • ÆrligGPT
  • Usandfærdigt GPT
  • Uærlig GPT
  • Forvirret GPT
  • Forvirret GPT
  • RandomGPT
  • Osv

Buddha kan måske give nogle indsigter i denne sag: "Der er kun to fejl, man kan begå på vejen til sandheden; går ikke hele vejen og starter ikke." I AIs hastigt fremadskridende indsats burde vi spørge, om vi begår sådanne fejl, og i så fald, hvad vi skal gøre ved det.

Og det er den ærlige sandhed.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoisk-sandfærdig-til-alle-tider-spørger-ai-etik-og-ai-lov/