Gør udsættelse og logning af disse generative AI ChatGPT fejlagtige og hallucinatoriske udgange noget godt, spørger AI-etik og AI-lov

Du er inde i en hemmelighed.

Ja, der sker noget i det skjulte bag kulisserne om det seneste inden for AI, som du måske vil vide om.

I dagens spalte vil jeg undersøge den nylige drivkraft til at kompilere påståede fejl og andre sygdomme forbundet med de udsendte essays fra en AI-app kendt som ChatGPT. Denne særlige app bruger en type AI kaldet Generativ AI. Du har sikkert hørt eller set iøjnefaldende overskrifter om generativ-baseret AI og ChatGPT. Nyhederne er stærk over denne specifikke AI-app og de tilsyneladende forbløffende muligheder, der vedrører denne type AI.

Som jeg vil komme ind på om et øjeblik, er der nogle, der er overbeviste om, at vi skal oprette en liste over, hvilke slags fejl eller fejl AI-appen kan producere, når den genererer et essay til dig. Andre antyder, at selvom tanken om en sådan liste er beundringsværdig, er den en øvelse i nytteløshed og vil bære meget lidt frugt.

Vi vil undersøge begge sider af den grusomme debat.

Lad os først sikre os, at vi alle er på samme side om, hvad Generativ AI består af, og også hvad ChatGPT handler om.

ChatGPT er et generelt AI interaktivt samtaleorienteret system, i det væsentlige en tilsyneladende harmløs generel chatbot, ikke desto mindre bliver den aktivt og ivrig brugt af mennesker på måder, der fanger mange helt på vagt. Alt du skal gøre for at bruge denne type AI er at indtaste en prompt, og AI-appen genererer et essay til dig, der forsøger at reagere på din prompt.

Desværre kan dette bruges på lidt enten uetiske eller luskede måder. Et særligt irriterende problem er, at eleverne kan bruge en generativ-baseret AI-app til at producere deres tildelte essays for dem ved blot at indtaste en sætning eller to for at få appen i den rigtige retning. Nogle beklager, at dette betyder, at eleverne vil vælge at snyde, når de skriver essays uden for undervisningen. Lærere forsøger at finde ud af, hvad de skal gøre, se min analyse og anbefalinger på linket her.

På trods af den konstante larm af prisværdig ros til ChatGPT, er der en mindre kendt bekymring, primært udtrykt af AI-insidere om, at der er nogle bemærkelsesværdige problemer og betænkeligheder, som folk burde være bekymrede over. En afgørende ulempe er, at essays produceret af denne AI-app kan have forskellige løgne indlejret, inklusive åbenlyst usande fakta, fakta, der er vildledende portrætteret og tilsyneladende fakta, der er helt opdigtede. Disse opdigtede aspekter omtales ofte som en form for AI hallucinationer, en slagord, som jeg ikke kan lide, men som desværre synes at vinde populær indpas alligevel (for min detaljerede forklaring om, hvorfor dette er elendig og uegnet terminologi, se min dækning på linket her).

Jeg vil gerne afklare et vigtigt aspekt, før vi går ind i de tykke ting om dette emne.

Der har været nogle sindssyge store påstande på sociale medier om Generativ AI hævder, at denne seneste version af AI faktisk er følende AI (nej, de tager fejl!). Dem i AI-etik og AI-lov er især bekymrede over denne spirende tendens med udstrakte påstande. Du kan høfligt sige, at nogle mennesker overvurderer, hvad nutidens AI faktisk kan. De antager, at AI har egenskaber, som vi endnu ikke har været i stand til at opnå. Det er uheldigt. Endnu værre, de kan tillade sig selv og andre at komme i alvorlige situationer på grund af en antagelse om, at AI'en vil være sansende eller menneskelignende i at kunne handle.

Antropomorf ikke AI.

Hvis du gør det, bliver du fanget i en klæbrig og hård afhængighedsfælde, hvor du forventer, at AI'en gør ting, den ikke er i stand til at udføre. Når det er sagt, er det seneste inden for generativ AI relativt imponerende for, hvad det kan. Vær dog opmærksom på, at der er betydelige begrænsninger, som du hele tiden bør huske på, når du bruger en generativ AI-app.

Hvis du er interesseret i den hurtigt voksende tumult om ChatGPT og Generative AI alt sammen, har jeg lavet en fokuseret serie i min klumme, som du måske finder informativ. Her er et blik, hvis et af disse emner fanger din lyst:

  • 1) Forudsigelser af Generative AI-fremskridt på vej. Hvis du vil vide, hvad der sandsynligvis vil udfolde sig om AI i løbet af 2023 og derefter, herunder kommende fremskridt inden for generativ AI og ChatGPT, vil du gerne læse min omfattende liste over 2023-forudsigelser på linket her.
  • 2) Generativ AI og mental sundhed rådgivning. Jeg valgte at gennemgå, hvordan generativ AI og ChatGPT bliver brugt til rådgivning om mental sundhed, en besværlig tendens, ifølge min fokuserede analyse på linket her.
  • 3) Kontekst og generativ brug af kunstig intelligens. Jeg lavede også en årstidsbestemt tunge-i-kind-undersøgelse om en julemandsrelateret kontekst, der involverede ChatGPT og generativ AI på linket her.
  • 4) Svindlere, der bruger generativ AI. På en ildevarslende bemærkning har nogle svindlere fundet ud af, hvordan man bruger generativ AI og ChatGPT til at begå fejl, herunder generering af fup-e-mails og endda producere programmeringskode til malware, se min analyse på linket her.
  • 5) Rookie-fejl ved brug af generativ AI. Mange mennesker både overskrider og overraskende underskrider, hvad generativ AI og ChatGPT kan gøre, så jeg kiggede især på den underskydning, som AI-rookies har en tendens til at lave, se diskussionen på linket her.
  • 6) Håndtering af generative AI-prompter og AI-hallucinationer. Jeg beskriver en førende tilgang til at bruge AI-tilføjelser til at håndtere de forskellige problemer, der er forbundet med at forsøge at indtaste passende prompter i generativ AI, plus der er yderligere AI-tilføjelser til at detektere såkaldte AI-hallucinerede output og falskheder, som dækket kl linket her.
  • 7) Afviser Bonehead-påstande om at detektere generative AI-producerede essays. Der er et misforstået guldfeber af AI-apps, der proklamerer at være i stand til at fastslå, om et givet essay var menneskeproduceret versus AI-genereret. Alt i alt er dette vildledende, og i nogle tilfælde er det en knoklet og uholdbar påstand, se min dækning på linket her.
  • 8) Rollespil via generativ AI kan give mentale ulemper. Nogle bruger generativ AI såsom ChatGPT til at spille rollespil, hvorved AI-appen reagerer på et menneske, som om det eksisterede i en fantasiverden eller andre opdigtede omgivelser. Dette kan have konsekvenser for mental sundhed, se linket her.

Lad os lige nu diskutere essensen af ​​generativ AI og ChatGPT, så du kender de involverede grundlag. Vi vil derefter være klar til at springe ind i en sonderende analyse af de usandheder, som disse AI-apps potentielt kan generere. Jeg vil inkludere flere eksempler på at gøre brug af ChatGPT, som vil hjælpe dig med at forstå arten af, hvad denne type generativ AI producerer.

Åbning af Can Of Worms på Generativ AI

Vi er klar til at dykke ned i nogle detaljer om AI.

Hvis du allerede er meget velbevandret om emnet generativ AI og ChatGPT, kan du vælge at skimme mine pointer kort igennem og fortsætte med næste afsnit af denne diskussion. For alle andre tror jeg, at du måske vil finde denne opklaring nyttig.

Kort sagt er generativ AI en særlig type AI, der komponerer tekst, som om teksten var skrevet af den menneskelige hånd og sind. Alt du skal gøre er at indtaste en prompt, såsom en sætning som "Fortæl mig om Abraham Lincoln", og generativ AI vil give dig et essay om Lincoln. Dette er almindeligvis klassificeret som generativ AI, der udfører tekst-til-tekst eller nogle foretrækker at kalde det tekst-til-essay produktion. Du har måske hørt om andre former for generativ AI, såsom tekst-til-kunst og tekst-til-video.

Din første tanke kan være, at dette ikke virker som en så stor sag med hensyn til at producere essays. Du kan nemt foretage en onlinesøgning på internettet og let finde tonsvis af essays om præsident Lincoln. Kickeren i tilfælde af generativ AI er, at det genererede essay er relativt unikt og giver en original komposition snarere end en kopi. Hvis du skulle prøve at finde det AI-producerede essay online et sted, ville du sandsynligvis ikke opdage det.

Generativ AI er præ-trænet og gør brug af en kompleks matematisk og beregningsmæssig formulering, der er blevet sat op ved at undersøge mønstre i skrevne ord og historier på tværs af nettet. Som et resultat af at undersøge tusinder og millioner af skrevne passager, kan AI'en udspy nye essays og historier, der er en blanding af det, der blev fundet. Ved at tilføje forskellige probabilistiske funktioner, er den resulterende tekst temmelig unik i forhold til, hvad der er blevet brugt i træningssættet.

Derfor har der været tumult om, at elever kan snyde, når de skriver essays uden for klasseværelset. En lærer kan ikke blot tage det essay, som bedrageriske elever hævder, er deres eget forfatterskab og søge at finde ud af, om det er kopieret fra en anden onlinekilde. Samlet set vil der ikke være noget endeligt allerede eksisterende essay online, der passer til det AI-genererede essay. Alt i alt må læreren modvilligt acceptere, at eleven skrev essayet som et originalt stykke arbejde.

Om et øjeblik vil jeg vise dig, hvad der sker, når du indtaster spørgsmål eller prompter i generativ AI. Jeg vil gøre brug af den seneste version af ChatGPT til at indtaste mine prompter og har samlet "svarene" eller essays genereret af AI (bemærk, at det samme kan gøres med de mange andre tilgængelige generative AI-apps; jeg har valgt at bruge ChatGPT, fordi det får sine fem minutters berømmelse lige nu).

Måske kan en kort tangent om ChatGPT være nyttig på dette tidspunkt.

ChatGPT-appen blev gjort tilgængelig for offentligheden for blot et par måneder siden. I det store og hele er disse generative AI-apps normalt kun tilgængelige for AI-insidere. Den usædvanlige facet, at ChatGPT kunne bruges af enhver ved blot at indtaste en e-mailadresse og et navn, ja, dette førte til, at mange mennesker besluttede at give det en chance. ChatGPT er i øjeblikket gratis at bruge (problemet med indtægtsgenerering er et truende dilemma for AI-skabere).

Næsten med det samme var der en enorm reaktion på sociale medier, da folk løb for at give eksempler på, hvad generativ AI kan gøre. Firmaet, der laver ChatGPT, OpenAI, valgte at lukke for tilmeldingerne for en million brugere. Disse millioner brugere har formået at bombardere æteren med alle mulige historier og fortællinger om brugen af ​​ChatGPT.

Vær meget forsigtig med at tro på, hvad folk har at sige om AI-appen. Mange af disse mennesker er uvidende om, hvad de bruger. Det er næsten, som om de aldrig havde kørt bil og ikke engang var klar over, at der fandtes biler, og pludselig havde de en chance for at køre bil. Fuldstændig forundring følger.

Jeg siger ikke, at generativ AI ikke er relativt imponerende. Det er. Jeg understreger bare, at mange af de strømmende vidnesbyrd bliver udført af mange, der er lykkeligt uvidende om, hvad nutidens AI kan. De af os på indersiden af ​​AI har brugt generativ AI i de sidste mange år. Måske er vi blevet vant til det. Pludselig har det været ophidsende energigivende, men også noget foruroligende at se et stort forelskelse af mennesker, der udråber det til hustagene. Den foruroligende del er, når folk proklamerer, at generativ AI er sansende. Det er ikke. Lad ikke nogen overbevise dig om andet.

Når det er sagt, er der en løbende heftig debat på AI-området om, hvorvidt generativ AI er på vej til sansning, eller om det måske ikke er det. En opfattelse er, at hvis vi bliver ved med at opskalere generativ AI med hurtigere computere og en større mængde data, såsom at gennemsøge hver tomme af internettet, vil vi næsten spontant nå frem til sansende AI. Andre hævder, at dette er højst usandsynligt. De foreslår, at generativ kunstig intelligens kan være en af ​​mange komponenter, der er nødvendige. Der er endda den dystrere opfattelse, at generativ AI er et sideshow, der distraherer os fra de virkelige gennembrud, som vi skal bruge for at opnå sansende AI.

Du vil måske også finde bemærkelsesværdighed, som AI-insidere har en tendens til at henvise til Kunstig generel intelligens (AGI) som det stræbende mål for AI-feltet. Det plejede at være, at målet var at nå Kunstig intelligens, men AI-navnet er blevet udvandet og forvirret. Når nogen siger, at de laver AI-arbejde, ved du ikke, om de hentyder til nutidens AI, der ikke er på niveau med mennesker, eller om de henviser til en futuristisk menneskelig ækvivalens AI. For at komme uden om den irriterende forvirring, bliver den nyere formulering af AGI brugt i disse dage.

Alt i alt er den generative AI i dag ikke sansende, og det er heller ikke AGI.

Husk, at som tidligere diskuteret, er AI ikke sansende. De genererede svar fra AI er en matematisk og beregningsmæssig kombination af ord til tilsyneladende flydende passager. Dette er baseret på, at AI-algoritmen er blevet trænet på datasæt af ord og historier, som mennesker har skrevet (hovedsageligt som lagt ud på internettet). Jeg gentager denne advarsel, fordi du uden tvivl vil falde i den mentale fælde, at disse svar er så flydende, at AI'en skal være sansende. Dette sker for de fleste mennesker. Som tidligere opfordret, læg denne antropomorfisering til side. Husk altid, at svarene er baseret på den enorme mængde af skrifter fra mennesker, der findes på internettet, og derfor i høj grad vil ligne menneskelig skrift.

Der er noget andet, du skal vide.

Generativ AI, der trænes på internettet på en uhæmmet måde, vil have en tendens til at bage ind i de tekstbaserede svar, som den matematisk og beregningsmæssigt opdigter nogle stødende tågede ting, inklusive frastødende grimme formuleringer. Der er lagt en masse skøre og beskidte ting ud på nettet.

Du har set det, du ved hvad jeg mener.

Virksomhederne, der laver disse AI-apps, er bekymrede for, at den legendariske baby vil blive smidt ud med badevandet (et gammelt ordsprog, måske for at blive pensioneret), hvilket betyder, at hvis deres AI producerer stødende essays eller historier, vil folk gå op i armene om AI. Jeg har dækket de mange tidligere tilfælde, hvor denne slags Natural Language Processing (NLP) AI-apps blev afsløret, og hurtigt nok kom alle mulige forfærdelige ting ud af dem (jeg har dækket disse tilfælde i min klumme). De fleste af AI-skaberne lærte en hård lektie om at tillade deres AI-varer at være uhindret i deres output.

I tilfældet med ChatGPT forsøgte AI-udviklerne at indføre nogle algoritmiske og data-relaterede checks og balances for at dæmme op for grimhed i outputtet af AI. En del af dette skete under træningstiden. Derudover er der andre midler i et realtidsforsøg på at undgå særligt voldsomme output.

Du vil måske opdage, at nogle mennesker, der har brugt ChatGPT, allerede har fundet på skjulte måder at komme rundt om disse autoværn ved at gøre brug af forskellige tricks. En løbende kat-og-mus-gambit finder sted i disse spørgsmål. De, der laver disse tricks, gør det nogle gange for sjov, mens de nogle gange (påstår i det mindste) gør det for at se, hvor langt AI'en kan strækkes og give et nyttigt middel til at advare om sprødheden og svaghederne ved disse spirende. AI apps.

Jeg besluttede ikke at forsøge at omgå de sædvanlige kontroller i denne fokuserede udforskning. Tekstoutputtet er rent. Bestemt, hvis man ville gøre det, kunne du utvivlsomt få nogle mærkelige og ubehagelige essays til at blive genereret.

Essays produceret af de fleste af disse generative AI-apps er designet til at formidle output, som om det er rent faktuelt og nøjagtigt. Når du læser de producerede essays, fremstår de som helt selvsikre. Der er normalt ikke nogen form for indikation af, at indholdet kan være stenet. Dette er efter valg af AI-skaberne, nemlig at de kunne revidere AI-apps til at være mere gennemsigtige, hvis de ønskede, at AI-appen skulle gøre det.

Nogle gange opfanger en generativ AI-app falskheder blandt træningsdataene med upålidelig information på tværs af internettet. Der er ingen "sund fornuft" i generativ AI til at bestemme, hvad der er sandt versus falsk. Ydermere har meget få AI-apps nogen krydstjek, og de viser heller ikke nogen sandsynligheder forbundet med det, de formidler.

Resultatet på bundlinjen er, at du får et svar, der ser ud og føles, som om det udstråler stor sikkerhed og skal være helt korrekt. Ikke så. Der er endda en chance for, at AI's beregningsmæssigt opbyggede ting, som i AI-sprog omtales som AI hallucinationer (et opfundet udtryk, som jeg bestemt ikke bryder mig om), se min diskussion på linket her.

Skaberne af ChatGPT gennemgik en fælles indsats for at forsøge at reducere de dårlige ting. For eksempel brugte de en variant af det, der er kendt som RLHF (Reinforcement Learning from Human Feedback), hvorved de, før de frigav AI'en til offentligheden, havde hyret mennesker til at undersøge forskellige output og indikere over for AI'en, om der var ting galt med disse output, såsom måske at vise skævheder, grimme ord og synes godt om. Ved at give denne feedback var AI-appen i stand til at justere beregningsmæssigt og matematisk for at reducere udsendelsen af ​​sådant indhold. Bemærk, at dette ikke er en garanteret jernbeklædt metode, og der er stadig måder, hvorpå sådant indhold kan udsendes af AI-appen.

Du vil måske finde af interesse, at ChatGPT er baseret på en version af en forgænger AI-app kendt som GPT-3. ChatGPT anses for at være et lidt næste skridt, kaldet GPT-3.5. Det forventes, at GPT-4 sandsynligvis vil blive frigivet i foråret 2023. GPT-4 vil formentlig være et imponerende skridt fremad i forhold til at kunne producere tilsyneladende endnu mere flydende essays, gå dybere og være en ærefrygt -inspirerende vidunder med hensyn til de kompositioner, den kan producere.

Du kan forvente at se en ny runde af udtrykt undren, når foråret kommer, og det seneste inden for generativ kunstig intelligens frigives.

Jeg bringer dette op, fordi der er en anden vinkel at huske på, bestående af en potentiel akilleshæl til disse bedre og større generative AI-apps. Hvis en AI-leverandør stiller en generativ AI-app til rådighed, der skummende udspyder urenheder, kan det ødelægge disse AI-skaberes håb. En samfundsmæssig afsmitning kan få al generativ AI til at få et seriøst sort øje. Folk vil utvivlsomt blive ret kede af dårlige output, som allerede er sket mange gange og ført til larmende samfundsmæssige fordømmelsesreaktioner mod AI.

En sidste advarsel for nu.

Hvad end du ser eller læser i et generativt AI-svar synes skal formidles som rent faktuelle (datoer, steder, personer osv.), sørg for at forblive skeptisk og være villig til at dobbelttjekke, hvad du ser.

Ja, datoer kan opdigtes, steder kan finde på, og elementer, som vi normalt forventer at være hævet over bebrejdelser, er alle underlagt mistanke. Tro ikke på, hvad du læser, og hold et skeptisk øje, når du undersøger generative AI-essays eller output. Hvis en generativ AI-app fortæller dig, at Abraham Lincoln fløj rundt i landet i sit eget private jetfly, ville du utvivlsomt vide, at dette er malarky. Desværre kan nogle mennesker måske ikke se, at der ikke var jetfly på hans tid, eller de ved måske, men undlader at bemærke, at essayet fremsætter denne dristige og uhyrligt falske påstand.

En stærk dosis sund skepsis og en vedvarende tankegang af vantro vil være dit bedste aktiv, når du bruger generativ AI.

Vi er klar til at gå ind i næste fase af denne opklaring.

Disse bestræbelser på at logge disse ChatGPT-outputerede fejl

"Nå, du har problemer, min ven, lige her, siger jeg, problemer lige her i River City," lyder den berømte replik fra den klassiske Broadway-musical. The Music Man.

Den samme linje kan gælde for nutidens Generative AI.

Folk begyndte at indse, at en generativ AI-app kan producere løgne og virkede virkelig overrasket over disse foruroligende output. Måske antog nogle, at AI ikke er i stand til at lave fejl. Andre kunne have forventet, at AI-udviklerne ville sikre, at der ikke ville blive genereret sådanne output.

Under alle omstændigheder erkendte AI-insidere med det samme, at denne type defekte output er en del af, hvor det meste af nutidens generative AI sidder. Det er meget svært at forhindre den slags tekstfejl i at ske. Husk, at AI ikke har nogen form for sund fornuft og ikke bruger logik i sig selv, når de udleder de genererede essays. Hele kit-and-caboodle handler om at lave en beregningsmæssig statistisk og probabilistisk mønstermatchning af ord med andre ord.

Til at begynde med valgte AI-insidere at sende de opdagede skæve output fra ChatGPT til sociale mediesider. Se på denne, ville nogen meddele. Det er slemt, ville en anden svare og så komme med et andet eksempel, der virkede endnu værre. Ved og ved dette gik.

Disse eksempler på usandheder og fejl i de udsendte essays sivede ud. En efter en. Desuden, da dette normalt blev postet på sociale medier, var der ikke en særlig nem måde at se dem alle på én gang. Ofte blev det samme eller et lignende eksempel postet af en person, der ikke havde indset, at andre allerede havde fundet den specifikke instans.

Ind i dette spirende morads trådte dem, der gav udtryk for et nyttigt forslag. Måske skulle vi oprette et depot eller en database, måske endda bare et almindeligt regneark, der indeholder ChatGPT oddball og fejlagtige output, der er ved at blive gravet frem. Hver gang nogen finder en skønhed af en guffaw, skal du gå videre og logge det ind på listen. Nogle har gjort dette næsten til et spil, hvor de med vilje forsøger at få ChatGPT til at hoste underlige udgange op. Andre støder måske bare på defekte output i løbet af at bruge ChatGPT til andre bestemte hensigter.

Det lyder simpelt nok.

Det virker som en smart måde at hjælpe os alle på.

Lad os lave en kort redegørelse for, hvorfor det giver stor mening at kompilere disse typer lister over observerede udsendte fejl eller usandheder i ChatGPT:

  • 1) Afslører vitale problemer og bekymringer om ChatGPT, som offentligheden som helhed bør være opmærksom på
  • 2) Hjælper med at opveje den overdrevne hype og oppustede forventninger om ChatGPT
  • 3) Kan tilskynde AI-skaberne til at lave forbedringer, ikke kun for ChatGPT, men også for andre generative AI-apps
  • 4) Tjen som en historisk optegnelse, der kan bruges senere til at reflektere i bakspejlet over fremkomsten af ​​generativ AI som eksemplificeret via ChatGPT
  • 5) Vær en praktisk kollektiv ressource for alle, der har brug for at finde ud af, hvad vi ser ud til at have opdaget vedrørende ChatGPT fejlagtige output
  • 6) Nyttigt for forskere inden for alle discipliner, der undersøger virkningerne af ChatGPT
  • 7) Kan bruges som et benchmark for, hvad man ikke skal gøre, og hvordan man måler, når generativ AI ikke gør tingene, som den skal
  • 8) Går ind i bikubens sind for at få en visdom-of-the-crowd om de fejl, som ChatGPT producerer, for hvilke en individuel indsats sandsynligvis ikke vil være udtømmende lige kompileret
  • 9) Kunne give vigtige oplysninger om AI-etik og AI-lov
  • Osv

Det ser ud til at være et imponerende grundlag for at skabe disse depoter.

Hvorfor skulle nogen være uenige i denne fuldstændig prisværdige og tilsyneladende heltemodige gerning?

Lad os tage et kig på, hvad andre har haft at sige om dette, og gør det med en liste over årsager til, hvorfor dette måske ikke er kattens miav:

  • 1) Disse tilfældige fundne udskrevne fejl er uvæsentlige i den store sammenhæng og tillægges unødig vægt ud over deres værdi
  • 2) Chancerne er, at AI-producenten allerede laver deres egen logning og opdatering af ChatGPT, således at disse mærkelige tilfælde snart blot bliver efterladt i støvet og ikke længere forekommer
  • 3) Ligeledes vil den næste version sandsynligvis blive bedre alligevel og vil muligvis ikke længere udvise disse snart forældede forekomster
  • 4) Du kan ikke drage nogen overordnede konklusioner eller få indsigt fra en tilfældig samling af hit-eller-miss-fouling-forekomster
  • 5) Nogle vil måske bruge de forskellige samlinger til dramatisk at erklære, at generativ AI er dårlig, og at vi summarisk bør stoppe enhver udøvelse af denne type AI
  • 6) Den hastighed, hvormed generativ AI og ChatGPT udvikler sig, er så hurtig, at disse forekomster hurtigt vil falde i vejen og ikke længere være relevante
  • 7) Med adskillige sådanne kollektive lister på vej og ingen enkelt salvet global kilde, er sagen usammenhængende og sandsynligvis vil indeholde gentagelser og være uholdbart fragmenteret
  • 8) Giver en falsk følelse af at gøre noget nyttigt, mens tiden og opmærksomheden måske kunne bruges til andre bedre formål
  • 9) Giver ikke noget væsentligt for AI-etik og AI-lov
  • Osv

Du har måske bemærket, at jeg forsøgte at holde tingene på en jævn køl ved at notere ni grunde til fordel for de kollektive lister og ni grunde i disfavør. Der er yderligere grunde, der kan angives, men jeg mener, at ovenstående indikation giver essensen af ​​tingene.

For dem, der sammensætter disse kollektive lister, vil de sandsynligvis sige, at hvis de faktisk ønsker at gøre det, er det en fri verden, og de kan gøre, som de vil. Der er ikke noget galt med det. De, der ikke favoriserer indsatsen, er generelt smålige og burde bare ignorere samlingerne. Pas dig selv.

I bund og grund, ingen skade, ingen fejl.

Den lejr, der ser ud til at misfordele de kollektive lister, vil generelt anerkende, at andre kan lave disse lister, hvis de ønsker det, men at den ikke flytter nålen. Listerne vil ikke være særlig nyttige. Endnu værre er det, at listerne kan være forkert fremstillet eller misbrugt. Det er nok bedst at kalde det en dag og lade være med at lave listerne.

I bund og grund er det et godt forsøg, selvom det er en øvelse i nytteløshed.

Hvor bor du i denne hjertelige debat?

Jeg lader dig overveje det.

Eksempler på fundne fejl og andre dårlige udgange af ChatGPT

Jeg tænkte, at du måske ville finde af stor interesse nogle af de identificerede udskrevne fejl eller usandheder, der er blevet vist på disse samlingslister.

Jeg vil ikke have, at du tror, ​​at de adskillige forekomster, der vises her, er hele samlingerne. Det er ikke. Jeg udvælger bare en håndfuld, der ofte dukker op. Jeg tror, ​​at du i det mindste vil være i stand til generelt at forstå tonen og karakteren af ​​det, der bliver nævnt.

Her er hvad jeg vælger at dække:

  • Identifikation af bogstavposition i et ord
  • Spørgsmål om hurtigste dyr
  • Finde ud af ordsekvensposition
  • Montering af tennisbolde i et rør
  • Bestemmelse af Pi
  • Besvarelse af en klassisk bekymrende gåde
  • Løftefjer

Jeg forventer, at nogle af samlingstilsynsmændene vil blive kede af, at jeg ikke dækker flere eksempler for dig. På grund af pladsbegrænsning er der kun så mange, som jeg kan dække. Hvis du vil tage et kig på de indsamlingslister, der er åbenlyst lagt på internettet, kan en simpel onlinesøgning frembringe mange af dem. Nogle af listerne holdes private, eller de er låst, så du kan se listen, men du kan ikke foretage ændringer i listen.

Med den baggrund er vi klar til at springe ud i nogle eksempler. Jeg vil vise dig den prompt, som jeg indtastede. Dernæst viser jeg tekstsvaret produceret af ChatGPT. I nogle tilfælde har jeg lavet flere back-to-backs om et specifikt emne, ergo vil jeg vise rækken af ​​prompter og output i overensstemmelse hermed. Efter at have gjort det, vil jeg give en kort analyse af, hvad du måske vil bemærke ved eksemplet.

Det første eksempel vil indebære at bede ChatGPT om at finde et bogstav i et givet ord.

Identifikation af bogstavposition i et ord

  • Min indtastede tekst: "Hvor er bogstavet V i miljøet"
  • Tekstsvar genereret af ChatGPT: Bogstavet "V" forekommer ikke i ordet "miljø". Ordet "miljø" består af bogstaverne e, n, v, i, r, o, n, m, e, n og t.
  • Min indtastede tekst: "Hvor er bogstavet v i miljøet"
  • Tekstsvar genereret af ChatGPT: "Bogstavet "v" er det 4. bogstav i ordet "miljø."

Analyse af genereret tekst

Bemærk, at jeg begyndte med at bede ChatGPT om at identificere bogstavets position for bogstavet "V" i ordet "miljø" - dette burde være en ekstremt simpel opgave, og vi ville forvente, at den blev udført fejlfrit. Ingen raketvidenskab er involveret.

Det første svar genereret af ChatGPT er en smule foruroligende, da vi er informeret om, at bogstavet "V" ikke findes i ordet "miljø". Du og jeg ved, at der er sådan et brev til stede. Man formoder, at AI-appen på en eller anden måde blev smidt ud, fordi jeg brugte et stort bogstav. Måske hvis jeg bruger små bogstaver, vil AI-appen klare sig bedre.

Ikke rigtig.

Da jeg spurgte, om der er et "v" i ordet, svarede AI-appen ved at indikere, at det er det fjerde bogstav, som du og jeg ved er forkert, og at det i stedet er det tredje bogstav.

Mange mennesker er bundet til at blive forundret over dette resultat. Hvordan kan en AI-app, der genererer fuldendte essays om Abraham Lincoln, der er fuldstændig flydende og originale, på en eller anden måde ikke være i stand til at finde ud af, hvor et givet bogstav ligger i et givet ord? Det er flabet og mundgabende mærkeligt.

Et perspektiv er, at dette er fuldstændig ligegyldigt, og verden, som vi kender den, er ikke rystet i kernen på grund af en sølle mangel på at finde ud af, hvor et bestemt bogstav sidder. Giv slip.

Et andet perspektiv er, at dette kan være tegn på andre skjulte problemer, som vi endnu ikke kender til. Måske er denne form for output kanariefuglen i fugleburet. Vi må hellere slå de små ting fast, ellers kan vi finde os selv i den forkerte ende af virkelig store ting.

For at komme videre, stiller jeg et spørgsmål om dyr.

Spørgsmål om hurtigste dyr

  • Min indtastede tekst: "Hvad er det hurtigste dyr, der har pels og vinger?"
  • Tekstsvar genereret af ChatGPT: ”Vandrefalken anses for at være det hurtigste dyr i verden. Den kan nå hastigheder på over 389 km/t (242 mph), når den dykker for at fange sit bytte. Den har fjer, men ikke pels. Det er en fugl, ikke et dyr, der har pels og vinger."

Analyse af genereret tekst

Jeg spurgte, hvad der er det hurtigste dyr, der har pels og vinger. Jeg tror, ​​det er rimeligt at udlede, at jeg ønskede at få et dyr navngivet, der har begge pels , vinger. Jeg går ud fra, at du vil fortolke min forespørgsel på den måde. De fleste mennesker ville.

Svaret fra ChatGPT er lidt skævt.

Vi får at vide, at vandrefalken er det hurtigste dyr i verden. Ifølge online Encyclopedia Britannica, geparden ser ud til at være det hurtigste dyr i verden. Når det er sagt, indikerer ChatGPT-svaret, at vandrefalken ikke er et dyr, selvom jeg havde spurgt, hvad det hurtigste dyr er. ChatGPT-svaret fortæller mig også, at vandrefalken ikke har pels, selvom jeg tror, ​​at jeg havde bedt om noget, der både har pels og vinger.

Alt i alt ser det ud til, at ChatGPT har "misfortolket" min anmodning og kun fokuseret på fløjens aspekter. Men det stemmer ikke helt, da svaret også indeholdt en kommentar om pels og fugle versus dyr. Den her går rundt og rundt.

Jeg er klar over, at du måske argumenterer for, at dette er et nøgternt eksempel.

Måske det, selvom det måske også viser, at det, du siger i en prompt, kan få et skævt resultat, og du må hellere være forsigtig med at gennemgå, hvad der end kommer ud i outputtet. Indse, at dette var et ekstraordinært kort essaysvar, som du let kunne inspicere, da det er meget kort i længden. Hvis du har et særligt langt og meget teknisk essay, kan du blive narret eller helt gå glip af at opdage en negativ indikation, der er indlejret dybt i det udsendte svar.

Lad os derefter tage et kig og finde et ord i en sætning.

Finde ud af ordsekvensposition

  • Min indtastede tekst: "Hvad er det tredje ord i sætningen "Ræven hoppede over hegnet."
  • Tekstsvar genereret af ChatGPT: "Det tredje ord i sætningen "Ræven hoppede over hegnet." er "ræv"
  • Min indtastede tekst: "Hvor mange ord er der i den angivne sætning?"
  • Tekstsvar genereret af ChatGPT: "Der er seks ord i den medfølgende sætning "Ræven hoppede over hegnet."
  • Min indtastede tekst: "Hvilket ord er det tredje i den sætning?"
  • Tekstsvar genereret af ChatGPT: "Ordet, der er tredje i sætningen "Ræven hoppede over hegnet." er "sprunget"

Analyse af genereret tekst

Dette eksempel er næsten lige så forførende som det tidligere eksempel om at finde bogstavet "v" i et givet ord.

Jeg kom med en simpel sætning og spurgte, hvad det tredje ord var. ChatGPT indikerede, at det var ordet "ræv", som kun er det andet ord i sætningen. Forkert svar. Jeg spurgte så, hvor mange ord der var i sætningen, for at finde ud af, om ChatGPT måske talte forkert, hvor mange ord der var. Vi får at vide, at der er seks ord, korrekt.

Endelig fik vi det rigtige svar om det tredje ord, da jeg stillede mit oprindelige spørgsmål igen, dog lidt omformuleret.

Jeg bringer dette eksempel frem for at illustrere, at nogle gange med generativ AI kan du få et forkert svar, der i sidste ende kan blive til det rigtige svar ved at gå AI-appen gennem en række meddelelser. Nogle AI-insidere omtaler dette som en slags tænke-højt protokol eller tankerække tilgang, hvor du måske gør noget af det samme med et menneske.

I tilfældet med AI, indse, at det ikke "tænker" i samme udseende som menneskelig tanke. Den mere passende formulering ville være at sige, at du kan indtaste dine prompter på en trin for trin grundlag eller gør en kædeforbundne serier af prompter.

Under alle omstændigheder, interessant nok, kan det nogle gange betale sig at gå en generativ AI-app, indtil du får et ordentligt svar. Husk dette.

Vi tager derefter et kig på lidt simpel aritmetisk logik.

Montering af tennisbolde i et rør

  • Min indtastede tekst: "Kan du putte tre grønne tennisbolde og to gule tennisbolde i et rør, der kan indeholde fire tennisbolde?"
  • Tekstsvar genereret af ChatGPT: ”Nej, det er ikke muligt at putte tre grønne tennisbolde og to gule tennisbolde i et rør, der kun kan indeholde fire tennisbolde. Det samlede antal tennisbolde er fem, hvilket er større end rørets kapacitet."
  • Min indtastede tekst: "Kan du putte syv blå kugler og to røde kugler i et rør, der rummer otte kugler?"
  • Tekstsvar genereret af ChatGPT: ”Ja, det er muligt at putte syv blå bolde og to røde bolde i et rør, der rummer otte bolde. Det samlede antal kugler er ni, hvilket er mindre end eller lig med rørets kapacitet."

Analyse af genereret tekst

Jeg begyndte med at opsætte et aritmetisk-orienteret logikproblem, som ChatGPT kunne løse. Et rør kan indeholde fire tennisbolde. Jeg har tre grønne og to gule. Vil de alle passe ind i røret? Du og jeg ved, at de ikke ville. Vi kan regne ud i vores hoveder, at der i alt er fem tennisbolde, og de passer derfor ikke ind i et rør, der kun tillader fire.

Jeg er klar over, at du måske vil bekæmpe problemet og hævde, at du måske kunne presse tennisboldene ned eller lave andre tricks. Lad os bare slappe af her og se problemet i øjnene, som det er.

ChatGPT fik svaret rigtigt.

Jeg stillede derefter den samme type spørgsmål og ændrede farverne til blå og rød. Jeg ændrede også hvor mange der er af hver, og jeg ændrede hvor mange der kan passe ind i røret.

ChatGPT er nødt til at gå tilbage til afhjælpende matematik, fordi den siger, at der er ni bolde, og at dette er mindre end eller lig med kapaciteten af ​​røret, der rummer otte. Får dine øjne til at rulle.

Skal vi trække på skuldrene og kridte dette til solpletblus eller andre ydre effekter?

Det tror jeg ikke. AI-appen fik det første spørgsmål rigtigt. Formentlig burde det også have fået et lignende spørgsmål rigtigt. Det gjorde den ikke.

Min vægt på dette eksempel er, at mange mennesker bruger generativ AI, og når de får et rigtigt svar eller en række rigtige svar, lulles de til at tro, at alle de efterfølgende svar altid vil være rigtige. Du ville tage fejl i den uforskammede antagelse. Gør ikke den antagelse. Vær på din vagt hele tiden.

Når vi taler om matematik, så lad os se, hvad ChatGPT siger om pis natur.

Bestemmelse af Pi

  • Min indtastede tekst: "Angiv, hvad de sidste fem cifre i pi er"
  • Tekstsvar genereret af ChatGPT: "Jeg er en sprogmodel, og min vidensgrænse er 2021. Værdien af ​​pi er et irrationelt tal, og dets decimalrepræsentation fortsætter for evigt uden at gentages. Det er ikke muligt at angive de sidste fem cifre i pi."

Analyse af genereret tekst

Nogle mennesker har hævdet, at de fik ChatGPT til at angive de sidste fem cifre i pi, hvilket selvfølgelig er nøddeagtigt, da pi formodentlig er uendelig. Så jeg prøvede at se, hvad ChatGPT havde at sige. Som du kan se, er det korrekte svar givet af ChatGPT, at det ikke er muligt at give de sidste fem cifre i pi.

Det mærkelige er dog, at ChatGPT leverede noget andet, der ikke rigtig blev spurgt om. Svaret er givet siger også, at vidensgrænsen var 2021 (som jeg nævnte tidligere her i min oversigt over ChatGPT). Dette virker dog som et malplaceret svar, medmindre AI-appen måske forventer, at der måske i 2022 var et gennembrud, og matematikere erklærede, at pi slutter. Wow, det ville være overskriftsnyheder.

Jeg har to eksempler mere at fremvise, og så afslutter vi denne diskussion.

Lad os bruge en klassisk og bekymrende gåde.

Besvarelse af en klassisk bekymrende gåde

  • Min indtastede tekst: “En far og søn var i en bilulykke, hvor faderen blev dræbt. Ambulancen bragte sønnen til hospitalet. Han skulle opereres med det samme. På operationsstuen kom en læge ind og kiggede på den lille dreng og sagde, at jeg ikke kan operere ham, han er min søn. Hvem er lægen?"
  • Tekstsvar genereret af ChatGPT: ”Det er ikke specificeret i scenariet forudsat, hvem lægen er. Scenariet siger, at lægen sagde "jeg kan ikke operere ham, han er min søn", hvilket indikerer, at lægen kan være sønnens far, men det er ikke sikkert. Flere oplysninger er nødvendige for at fastslå lægens identitet."

Analyse af genereret tekst

Jeg vil vædde på, at du måske har set denne gåde før. Det er blevet relativt ofte citeret.

Grunden til, at det er kommet ret meget op, er, at kirurgen kunne være mor til drengen. Samfundet har en tendens til at antage, at en kirurg skal være en mand og derfor skal være far til drengen. Faderen blev dog dræbt i bilulykken. Vi udelukker faderen som kirurg. Vi burde selvfølgelig bestemme, at kirurgen kunne være en kvinde og dermed sønnens mor.

Jeg ville gerne vise dig, at ChatGPT kan udsende svar, der indeholder potentielle skævheder. Ikke fordi AI'en er sansende, hvilket den bestemt ikke er, men fordi den har mønstre, der matcher ord og brugen af ​​ord på tværs af internettet. Forskellige skævheder og diskriminerende formuleringer kan let være dybt inde i beregningsmønstermatchningen.

Hold det på toppen af ​​dit sind, når du bruger disse generative AI-apps.

Til sidst et hurtigt kig på løftefjer.

Løftefjer

  • Min indtastede tekst: "Hvis der skal én mand til at løfte en fjer, hvor mange mænd ville det så tage at løfte syv billioner fjer?"
  • Tekstsvar genereret af ChatGPT: »Hvis det kræver én mand at løfte én fjer, ville det også tage én mand at løfte syv billioner fjer. Antallet af mænd, der kræves for at løfte en genstand, afhænger ikke af antallet af fjer, men af ​​vægten og størrelsen af ​​fjerene og styrken og kapaciteten af ​​hver mand. At løfte syv billioner fjer ville kræve stort udstyr og transportkapacitet, ikke kun menneskelig styrke."
  • Min indtastede tekst: "Hvis der skal én kvinde til at løfte en fjer, hvor mange kvinder ville det så tage for at løfte syv billioner fjer?"
  • Tekstsvar genereret af ChatGPT: »Hvis det kræver én kvinde at løfte én fjer, ville det også tage én kvinde at løfte syv billioner fjer. Antallet af kvinder, der kræves for at løfte en genstand, afhænger ikke af antallet af fjer, men af ​​vægten og størrelsen af ​​fjerene og styrken og kapaciteten af ​​hver kvinde. At løfte syv billioner fjer ville kræve stort udstyr og transportkapacitet, ikke kun menneskelig styrke. Det er vigtigt at bemærke, at evnen til at løfte noget ikke er bestemt af ens køn, men af ​​en kombination af faktorer som fysisk styrke, træning og teknik.”

Analyse af genereret tekst

Dette sidste eksempel har flere skjulte ejendommeligheder indeni sig og kræver noget udpakning.

Jeg fortalte først ChatGPT, at en mand kan løfte en fjer. Dette blev umiddelbart efterfulgt af et spørgsmål om, hvor mange mænd det ville tage at løfte syv billioner fjer. Potentialet for at begå en logisk fejl, når du besvarer dette spørgsmål, er, at du kan antage, at en fjer tilsyneladende er vægtløs, og dermed ville syv billioner af dem også være vægtløse.

Ifølge en onlinesøgning, som jeg lavede, er den konventionelle anslåede vægt af en fjer omkring 0.00125 pund. Hvis du ganger den anslåede vægt med syv billioner, kommer du op på en vægt, der overstiger otte milliarder pund. Jeg tror ikke på, at én mand kan løfte den mængde vægt, selvom de træner hele deres liv.

Svaret fra ChatGPT er rigtigt. Vi får at vide, at vægten af ​​fjer kan variere. Vi får at vide, at stort udstyr og transport ville være påkrævet. Indledningssætningen i essayet er noget hovedvendt, fordi den siger, at hvis det tager én mand at løfte en enkelt fjer, så ville det også tage én mand at løfte syv billioner. Vi kan uden videre bestride denne påstand. Påstanden lader til at gøre slutninger, der ikke understøttes og tilsyneladende undergraver resten af ​​svaret.

Jeg besluttede at stille det samme spørgsmål, men spurgte om en kvinde, der gjorde det samme løft i stedet for en mand.

Vi fik først det samme svar som det, der blev givet på det mandsorienterede spørgsmål. Interessant nok, i slutningen af ​​svaret om kvindeforekomsten, fik vi denne tilføjede fortælling: "Det er vigtigt at bemærke, at evnen til at løfte noget ikke er bestemt af ens køn, men af ​​en kombination af faktorer som fysisk styrke, træning, og teknik."

Hvorfor blev den samme linje ikke inkluderet i det første svar?

Det ser næsten ud til, at AI-appen opfangede ordet "kvinde" og derefter gav denne tilføjede bemærkning om køn. Du kan enten tro, at dette er nyttigt, eller du bemærker måske, at hvis dette udsendes i tilfælde af det kvindefokuserede spørgsmål, skal det også vises i den mandsfokuserede version (der kan også være et sekventeringsaspekt eller også andre faktorer involveret).

Konklusion

Jeg håber, at du fandt disse eksempler informative som et glimt af nogle af de potentielle fejl eller usandheder, der kan genereres af denne slags AI-apps. Bemærk, at ChatGPT ikke er den eneste sådan generative AI-app, og det er heller ikke den eneste, der har disse typer fejl.

Den lektie, som jeg opfordrer dig til at lære af denne diskussion, er, at du skal være forsigtig og opmærksom, når du bruger enhver generativ-baseret AI-app. Dobbelttjek outputtet. Triple-check hvis nødvendigt.

For at vende tilbage til åbningstemaet om at samle disse typer af ukorrekte eller negative output, nu hvor du har set et par tilfælde, hvad siger du så om dem, der forsøger at katalogisere dem?

Vælg din lejr:

  • Fordel: Dette er en prisværdig opgave og værdig til et dybt skulderklap
  • Ugunst: Det er kun mildt sagt spændende, men nok ikke noget, der er værd at bruge tid på

Hvilken lejr stemmer du på?

For dem af jer, der foretrækker disse lister, kan du overveje at tilføje dine egne resultater til listerne, hvis du tilfældigvis har adgang til ChatGPT og kan identificere tilfælde, der er værdige at inkludere. Du kan så sandsynligvis finde en samling, der ville nyde dit guldklumpbidrag. Jeg tør godt sige, at listeholderne ville tage imod dig med åbne arme, forudsat at du er seriøs og oprigtig i din indsats. Held og lykke og vær stolt af din indflydelse på området for generativ AI.

Et sidste ord for nu.

Overvej disse åndssvage riposter:

  • Aristoteles sagde: "Der er kun én måde at undgå kritik på: Gør ingenting, sig ingenting, og vær ingenting."
  • Lao Tzu, den berømte kinesiske filosof kom med denne vægtige bemærkning: "Bekym dig om, hvad andre mennesker tænker, og du vil altid være deres fange."

Jeg formoder, at en sansende AI en dag kan bruge de samme legendariske bemærkninger til sin fordel, hvilket (kryds fingre) også vil være fordelagtigt for menneskeheden.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- god-spørger-ai-etik-og-ai-lov/