Hvad du behøver at vide om GPT-4 Den netop udgivne efterfølger til generativ AI ChatGPT, plus AI-etik og AI-lovovervejelser

Hvad er din sædvanlige reaktion på udgivelsen af ​​en efterfølger til en stor overskrifts-succesfilm?

Nogle mennesker går og ser efterfølgeren og erklærer, at den er lige så god, hvis ikke engang bedre end originalen. Andre har måske ekstraordinært høje forventninger og efter at have set den nyere film udråbe den som rimelig god, men ikke noget at hyle ekstatisk over. Der er nogle, der utvivlsomt vil blive overordentlig skuffede, uanset hvad den seneste film indeholder, og som summarisk vil erklære, at den første film var uforskammet over efterfølgeren.

Den samme række af reaktioner og følelser er kommet i forgrunden i udgivelsen i går af GPT-4 af AI-producenten OpenAI, der finder sted på Pi Day, nemlig 3.14 eller 14. marts 2023. Sandsynligvis en tilfældighed, der skete på matematikerens favorittærte- spisedag, gav afsløringen af ​​GPT-4 en masse presseopmærksomhed og omfangsrig snak på sociale medier.

Jeg vil heri beskrive de vigtigste funktioner og muligheder ved GPT-4, sammen med at foretage sammenligninger med dens forgænger ChatGPT (den indledende "blockbuster" i min analogi). Derudover er der en række virkelig vitale AI-etik og AI-lovovervejelser, der går sammen med generativ AI, herunder og måske især i tilfældet med GPT-4 og ChatGPT på grund af deres utvivlsomt udbredte brug og vanvid-gnistende medier og offentlig opmærksomhed vedr. nuværende og fremtidige AI.

Kort sagt, ligesom en efterfølger til en film, er GPT-4 på nogle måder bedre end ChatGPT, såsom at være større, hurtigere og tilsyneladende mere flydende, mens det i andre henseender rejser yderligere og udtalte betænkeligheder (jeg vil dække dem kort heri). Lidt forvirret reaktion. Efterfølgeren er ikke en slam-dunk, som mange havde regnet med, den ville være. Det viser sig, at tingene er mere nuancerede end som så. Det ser ud til, at det er den virkelige verden, vi alle lever i.

Måske sagde den administrerende direktør for OpenAI, Sam Altman, det bedst i sine tweets den 14. marts 2023 om GPT-4-lanceringen:

  • "Her er GPT-4, vores hidtil mest dygtige og tilpassede model. Den er tilgængelig i dag i vores API (med en venteliste) og i ChatGPT+."
  • "Den er stadig defekt, stadig begrænset, og den virker stadig mere imponerende ved første brug, end den gør, når du har brugt mere tid på den."

Mine forslag til, hvad du kan overveje at gøre som et resultat af frigivelsen af ​​GPT-4, og som afhængigt af din eksisterende situation eller omstændighed, består af disse potentielle handlinger:

  • Eksisterende ChatGPT-brugere. Hvis du allerede bruger ChatGPT, bør du tage et nærmere kig på GPT-4 for at se, om du måske vil bruge det i stedet (eller du kan bruge GPT-4 ud over at bruge ChatGPT, så brug enten en af ​​ChatGPT eller GPT -4, afhængigt af dine behov, efterhånden som de opstår). Du kan spille med GPT-4, hvis du abonnerer på ChatGPT Plus, abonnementstilstanden på $20 pr. måned for at bruge ChatGPT, ellers har du ikke en særlig nem måde at få adgang til GPT-4 på nuværende tidspunkt (det forbehold eller twist er, at Microsoft Bing, søgemaskinen, bruger en variant af GPT-4, som jeg har diskuteret på linket her).
  • Aldrig brugt nogen generativ AI. Hvis du ikke bruger ChatGPT og aldrig har brugt nogen generativ AI, vil du måske først starte med ChatGPT, da det er gratis tilgængeligt (eller, selvfølgelig, overveje at bruge en af ​​de utallige andre generative AI-apps til at begynde din rejse ind i dette AI-rige). GPT-4 er ikke gratis på nuværende tidspunkt, som nævnt i punkterne ovenfor vedrørende eksisterende ChatGPT-brugere. Når du har fået våde fødder med ChatGPT, kan du så beslutte, om det er værd at abonnere på ChatGPT Plus for at få de ekstra fordele, herunder at have adgang til GPT-4.
  • Brug af en anden generativ AI. Hvis du bruger en anden generativ AI-app end ChatGPT, kan det være, at du måske finder GPT-4 af stor interesse, da den har forbedringer ud over, hvad ChatGPT tilbyder. Jeg nævner dette, fordi nogle kyndige AI-brugere besluttede, at ChatGPT ikke var så godt for dem som andre muligheder. Jeg vil anbefale, at du holder dig opdateret om GPT-4 for at afgøre, om dit eksisterende valg stadig er det bedste for dig. Det kan være. Jeg er således ikke fortaler for, at du helt sikkert skal skifte til GPT-4 og kun sige, at det altid er klogt at sparke dækkene på andre tilgængelige biler.
  • Anden software, der tilgår ChatGPT via API'et. For dem, der laver software, der opretter forbindelse til ChatGPT via API'et (applikationsprogrammeringsgrænsefladen), som jeg har diskuteret på linket her, vil du gøre klogt i at se nærmere på brugen af ​​GPT-4 via dens API. Et stort spørgsmål er, at omkostningerne ved at bruge GPT-4 API er meget højere end at bruge ChatGPT. Du vil gerne lave en afvejningsanalyse af de ekstra fordele ved GPT-4 versus det billigere alternativ ved at holde fast i ChatGPT. Dette er en noget kompliceret beslutning. Gør det med omtanke og ikke tankeløst.

En ting, der virker som et chokerende for mange, er, at nyhedsværdien ikke helt steg til det niveau, man tidligere havde forventet.

Tillad mig at forklare hvorfor.

Den originale blockbuster og nu dens efterfølger

Du ved sandsynligvis, at en generativ AI-app kendt som ChatGPT blev gjort tilgængelig i slutningen af ​​november sidste år.

Dette var et overraskende kæmpehit.

Indtil da blev tidligere bestræbelser på at frigive generative AI-applikationer til den brede offentlighed typisk mødt med foragt og forargelse. Grundlaget for bekymringerne var, at generativ AI kan producere output, der indeholder alle mulige grimme output, herunder profant sprogbrug, ubehagelige skævheder, usandheder, fejl og endda opdigtede fakta eller s.k. AI hallucinationer (Jeg kan ikke lide den "hallucinations"-terminologi, da den har en tendens til at antropomorfe AI, se min diskussion på linket her).

Generativ AI er en type AI, der involverer generering af output fra brugerindtastede tekstprompter, såsom at være i stand til at producere eller generere tekstbaserede essays eller producere billeder eller illustrationer eller producere lyd eller producere video osv. Disse er normalt omtalt som tekst-til-tekst, tekst-til-essay, tekst-til-kunst, tekst-til-billede, tekst-til-lyd, tekst-til-video og lignende. Den bemærkelsesværdige facet af generativ AI er, at de genererede værker tilsyneladende er på niveau med menneskeskabte output. Du ville have svært ved at prøve at skelne et generativt AI-output fra en sammenlignelig sammensætning udelukkende produceret af det menneskelige sind og den menneskelige hånd.

For mere om generativ AI, se min igangværende serie, såsom dette link her om det grundlæggende i ChatGPT og generativ AI, sammen med studerendes dækning af ChatGPT og spørgsmålene om potentielt snyd på essays (brug linket her), den yderst tvivlsomme brug af ChatGPT til rådgivning om mental sundhed (se linket her), bekymringer over potentielt plagiat og krænkelse af ophavsretten til generativ AI (linket her) og mange flere fremtrædende emner på linket her.

En del af grunden til, at ChatGPT ikke så ud til at få det sædvanlige piskesmæld, skyldtes noget bag kulisserne arbejde fra AI-producenten, OpenAI, før udgivelsen af ​​ChatGPT. De forsøgte at bruge forskellige teknikker og teknologier til at skubbe tilbage på at udskrive særligt hadefulde og modbydelige essays. Husk, at ChatGPT udelukkende er en tekst-til-tekst- eller tekst-til-essay-stil af generativ AI. Forsøgene på at forhindre besynderlige og rasende output består således i at beskæftige sig med ord. Lignende problemer opstår, når outputtet er kunst eller billeder, selvom dette kan være lige så eller mere vanskeligt at fange for at forhindre produktionen af ​​stødende billeder af den ene eller anden art.

En bemærkelsesværdig teknik, der i stigende grad er blevet omfavnet af AI-skabere, består alt i alt i at bruge RLHF (forstærkende læring via menneskelig feedback). Her er hvordan det generelt fungerer. Når først en generativ AI-app først er blevet datatrænet, såsom ved at scanne tekst på tværs af internettet, bruges menneskelige anmeldere til at hjælpe med at guide eller vise AI'en, hvad der er værd at sige, og hvad der er skandaløst at sige. Baseret på denne serie af godkendelser og afvisninger er den generative AI nogenlunde i stand til at mønster matche, hvad der synes okay at udsende, og hvad der synes ikke at være tilladt.

Jeg vil også gerne nævne et andet meget vigtigt punkt.

AI'en er ikke sansende.

Uanset hvad de tossede overskrifter erklærer, kan du være sikker på, at dagens AI ikke er sansende. Til generativ kunstig intelligens er appen et omfattende software- og datamodelleringsapparat til beregningsmønstermatchning. Efter at have undersøgt millioner og atter millioner af ord fra internettet, udledes mønstre om ord og deres statistiske sammenhænge. Et resultat er en fantastisk form for mimik af menneskeligt sprog (nogle AI-insidere omtaler dette som en stokastisk papegøje, hvilket på en måde gør pointen, selvom det desværre bringer et ellers sansende element ind i diskussionen).

Du kan tænke på generativ AI som autofuldførelsesfunktionen, når du bruger en tekstbehandlingspakke, selvom dette er en meget mere omfattende og avanceret funktion. Jeg er sikker på, at du er begyndt at skrive en sætning og har en autofuldførelse, der anbefalede ordlyden for resten af ​​sætningen. Med generativ AI, såsom ChatGPT, indtaster du en prompt, og AI-appen vil forsøge ikke blot at fuldføre dine ord, men søge at besvare spørgsmål og komponere hele svar.

Derudover indebærer en nybegynderfejl, som mange begår, når de bruger ChatGPT eller en anden lignende generativ AI-app, at man undlader at bruge de berygtede interaktive samtalekapaciteter. Nogle mennesker indtaster en prompt og venter derefter på et svar. De synes at tro, at det er alt, hvad der er. En og færdig. Men dette mangler kernen i generativ AI. Den mere brugbare tilgang består i at lave en række anvisninger forbundet med at gå i dialog med den generative AI. Det er her generativ AI virkelig skinner, se mine eksempler på linket her.

ChatGPT blev udråbt af medierne og offentligheden som et fantastisk gennembrud inden for kunstig intelligens.

Virkeligheden er, at mange andre lignende AI-apps er blevet udtænkt, ofte i forskningslaboratorier eller tænketanke, og i nogle tilfælde blev de omhyggeligt gjort tilgængelige for offentligheden. Som jeg sagde ovenfor, var resultatet normalt ikke kønt. Folk proppede og prikkede til den generative AI og formåede at få essays af grusom karakter, se min dækning på linket her. AI-skaberne i disse tilfælde blev normalt tvunget til at trække AI'en tilbage fra den åbne markedsplads og vende tilbage til at fokusere på laboratoriebrug eller omhyggeligt udvalgte AI-betatestere og -udviklere.

En stor del af resten af ​​kunstig intelligens-industrien var forbløffet over, at ChatGPT formåede at gå på linie med stadig at producere dårlige output og alligevel ikke i den grad, at offentlighedens følelser tvang OpenAI til at fjerne AI-appen fra den generelle adgang.

Dette var det sande chok ved ChatGPT.

De fleste mennesker antog, at chokket var den fortrolige evne. Ikke for dem i AI. Den overraskelse, der ramte næsten alle AI-insidere, var, at du kunne frigive generativ AI, der kunne udspy hadefulde ytringer, og tilbageslaget var ikke voldsomt nok til at tvinge et hurtigt tilbagetog. Der kan man bare se? Inden udgivelsen af ​​ChatGPT forudsagde rygtemøllen faktisk, at OpenAI inden for et par dage eller uger højst ville fortryde at gøre AI-appen let tilgængelig for alle deltagere. De ville være nødt til at begrænse adgangen eller muligvis gå den hjem og tage et pusterum.

Den utrolige succes med ChatGPT-udrulningen har forsigtigt åbnet døren til andre generative AI-apps, der også kan møde gaden. For eksempel har jeg diskuteret Google-afsløringen af ​​Bard, og hvordan internetsøgemaskinekrigene opvarmes på grund af et ønske om at tilslutte generativ AI til konventionel websøgning, se linket her.

ChatGPT kan med rimelighed karakteriseres som en blockbuster. Det er også en, der så at sige kom ud af ingenting. Nogle gange er en storfilm på forhånd kendt som sandsynlig vil være en storfilm ved udgivelsen. I andre tilfælde er filmen en sovende, der overrasker offentligheden og endda filmskaberen. Det er, hvad der skete med ChatGPT og OpenAI.

Okay, så vi har blockbusteren, ChatGPT.

ChatGPT er grundlæggende baseret på en version af GPT kendt som GPT-3.5. Tidligere har der været GPT-3, GPT-2 og lignende. AI-verdenen og dem, der tangerer AI, vidste alle, at OpenAI havde arbejdet på den næste version, GPT-4.

GPT-4 ville blive betragtet som efterfølgeren eller efterfølgeren til ChatGPT.

Dette bringer os tilbage til min analogi om film. ChatGPT, en overraskende blockbuster, var enorm i popularitet. Forventningerne om, hvad GPT-4 ville være, og hvordan offentligheden ville reagere, var fyldt med vilde spekulationer. GPT-4 ville gå på vandet! GPT-4 vil være hurtigere end en fartkugle! GPT-4 vil være opnåelsen af ​​sansende AI eller Artificial General Intelligence (AGI)!

Ved og ved dette er gået.

Du er måske vagt klar over, at direktøren for OpenAI, Sam Altman, sagde dette i et interview på YouTube (dateret 17. januar 2023): "GPT-4-rygtemøllen er en latterlig ting. Jeg ved ikke, hvor det hele kommer fra. Folk tigger om at blive skuffede, og det vil de blive. Hypen er ligesom... Vi har ikke en egentlig AGI, og det er sådan set, hvad der forventes af os."

Nå, GPT-4 er her.

Filmen er udkommet.

Vi kan se det med vores egne øjne. Ikke flere utæmmede spekulationer. Virkeligheden er kommet på plads.

Lad os pakke det skinnende nye legetøj ud.

Det væsentlige ved GPT-4

Du vil utvivlsomt gerne vide, hvad GPT-4 tilbyder.

I min diskussion vil jeg referere til forskellige dokumenter og videoer, som OpenAI har gjort tilgængelige om GPT-4, sammen med at komme med bemærkninger baseret på min brug af GPT-4. For at lette diskussionen skal du vide, at der er to praktiske dokumenter, som jeg ivrig vil citere, det ene med titlen OpenAI-embedsmanden GPT-4 teknisk rapport og den anden er OpenAI-embedsmanden GPT-4 systemkort dokument (begge er tilgængelige på OpenAI-webstedet). Jeg vil citere dem ved akronymerne af TR for GPT-4 teknisk rapport , SC for GPT-4 systemkort.

Lad os starte med at citere den allerførste sætning i abstraktet for TR:

  • "Vi rapporterer udviklingen af ​​GPT-4, en storstilet, multimodal model, som kan acceptere billed- og tekstinput og producere tekstoutput."

Tro det eller ej, men der er meget pakket ind i den ene sætning.

Sæt dig ned og få en behagelig drink i hånden.

Et aspekt, der er en almindeligt accepteret tommelfingerregel om generativ AI, er, at jo større systemet er, desto mere sandsynligt bliver flydende og overordnet kapacitet. Dette ser ud til at være relativt veletableret af de historisk stigende størrelser af de generative AI-systemer og deres stadig mere bemærkelsesværdige flydende med hensyn til at føre interaktive samtaler. Ikke alle mener, at det skal være tilfældet, og der er forskere, der aktivt søger mindre opsætninger, der bruger forskellige optimeringer til potentielt at opnå lige så meget som deres større brødre.

I den ovenfor citerede sætning om GPT-4 fra TR har du måske observeret formuleringen om, at det er en "storskala" generativ AI. Alle ville sandsynligvis være tilbøjelige til at være enige, baseret på de relative størrelser af generative AI-systemer i dag.

Det åbenlyse spørgsmål hos AI-insidere er, hvor stor den er storstilet når det kommer til GPT-4?

Normalt erklærer AI-producenten stolt forskellige størrelsesmålinger af deres generative AI. Du kan gøre det for at informere resten af ​​AI-verdenen om, hvordan størrelse og skala betyder noget. Du kan gøre det for at prale. Du kan gøre det simpelthen fordi det er som en bil, hvor en naturlig nysgerrighed er, hvor stor en motor er der, og hvor hurtigt den vil gå.

Ifølge TR er her, hvad der er angivet:

  • "I betragtning af både det konkurrenceprægede landskab og de sikkerhedsmæssige konsekvenser af store modeller som GPT-4, indeholder denne rapport ingen yderligere detaljer om arkitekturen (herunder modelstørrelse), hardware, træningsberegning, datasætkonstruktion, træningsmetode eller lignende."

AI-insidere har en tendens til at finde dette forførende. På den ene side ser det ud til at være et foruroligende brud med diplomatiet ikke at fortælle om disse afgørende karakteristika. Når det er sagt, logikken i, at det kan afsløre proprietære hemmeligheder eller muligvis kunne åbne døren til cybersikkerhedsbukser, ja, det ser også ud til at give mening.

Bør AI-skabere tvinges til at afsløre særlige karakteristika ved deres generative AI, og gøre det i den grad og på en måde, som ikke utilsigtet vil afsløre nogle vitale spor?

Jeg vil lade dig tage din AI Ethics hat på for at overveje denne betragtning.

Nogle mener, at vi også kan ende med at etablere nye AI-love, der vil kræve eksplicit offentliggørelse.

Tankegangen er, at offentligheden burde vide, hvad der foregår med AI, især når AI bliver større og formentlig har potentialet til i sidste ende at bevæge sig ind i den alvorlige zone af eksistentielle risici, se min analyse på linket her.

Når vi går videre, ved vi heller ikke, hvilke data der blev brugt til at træne GPT-4.

Dataene gør eller bryder fremkomsten af ​​generativ AI. Nogle mennesker antager fejlagtigt, at hele internettet blev scannet for at udtænke disse generative AI-egenskaber. Nix. Faktisk, som jeg diskuterer på linket her, bliver kun en lille bitte del af internettet scannet.

Et relateret aspekt er, om den generative AI er i realtidsscanning af internettet og justerer den beregningsmæssige mønster-matching. ChatGPT var begrænset til scanninger, der fandt sted senest i år 2021. Det betyder, at når du bruger ChatGPT, er der stort set ingen data om, hvad der skete i 2022 og 2023.

Rygterne gik på, at GPT-4 ville indeholde en opdateret og realtidsforbindelse til internettet til justering undervejs.

Her er hvad TR siger:

  • "GPT-4 mangler generelt kendskab til hændelser, der har fundet sted, efter at langt størstedelen af ​​dets før-træningsdata blev afbrudt i september 2021 og lærer ikke af sine erfaringer. Det kan nogle gange lave simple begrundelsesfejl, som ikke synes at stemme overens med kompetence på tværs af så mange domæner, eller være alt for godtroende til at acceptere åbenlyst falske udsagn fra en bruger."

Du kan måske så se, hvorfor nogle er en smule skuffede over GPT-4. Rygterne foreslog, at den ville fungere i realtid og samtidig tilpasse sig internettet undervejs. En betragtet stor forbedring i forhold til ChatGPT. Virkeligheden er, at GPT-4 stadig beskæftiger sig med daterede data. Og der sker ikke en justering i realtid til den beregningsmæssige mønstermatchning i sig selv baseret på opdateringer fra internettet.

Jeg har flere nyheder til dig.

Den sætning, som jeg tidligere citerede om GPT-4 som værende storstilet, sagde også, at GPT-4 er multimodale.

Tillad mig at give lidt baggrund for begrebet multimodale generativ AI.

Jeg nævnte i starten af ​​denne diskussion, at der er forskellige typer generativ AI, såsom tekst-til-tekst eller tekst-til-essay, tekst-til-kunst eller tekst-til-billede, tekst-til-lyd, tekst -til-video osv. Disse anses alle for at være en enestående måde at håndtere indholdet på. For eksempel kan du indtaste noget tekst og få et genereret essay. Et andet eksempel ville være, at du indtaster tekst og får et genereret kunstværk.

I slutningen af ​​sidste år lavede jeg mine årlige forudsigelser om, hvad vi ville se i AI-fremskridt for år 2023 (se linket her). Jeg havde udtalt, at multimodal generativ AI ville blive hot. Ideen er, at du for eksempel kan indtaste tekst og et billede (to tilstande ved input), ved at bruge dem som prompt til generativ AI, og du kan muligvis få et essay som output sammen med en genereret video og et lydspor (tre tilstande på produktion).

Således kan en lang række måder eksistere side om side. Du kan have et væld af tilstande ved prompten eller input. Du kan også have et væld af tilstande ved det genererede svar eller output. Du kunne have en mix-and-match ved både input og output. Det er der, tingene er på vej hen. Spændende og mulighederne for, hvad der kan gøres med generativ AI, åbnes enormt på grund af den multimodale funktionalitet.

ChatGPT har kun en enkelt tilstand. Du indtaster tekst, du får noget genereret tekst som output.

Rygterne gik på, at GPT-4 så at sige ville bryde lydbarrieren og give en fuld multimodal kapacitet til alting. Alle vidste, at teksten ville være med. Forventningen var, at billeder eller kunstværker ville blive tilføjet sammen med lyd og muligvis endda video. Det ville være gratis for alle. Enhver tilstand på input, inklusive så mange af disse tilstande, som du ønsker. Plus enhver tilstand på output, inklusive så mange af de blandede tilstande, som du måtte ønske at have.

Et sandt smørebord af modes.

Hvad giver GPT-4?

Gå tilbage til den sætning fra TR:

  • "Vi rapporterer udviklingen af ​​GPT-4, en storstilet, multimodal model, som kan acceptere billed- og tekstinput og producere tekstoutput."

Du kan indtaste tekst, og du får udskrevet tekst, plus du kan eventuelt indtaste et billede ved indgangen.

Demonstrationer, der viser billed- eller visionsbehandlingen af ​​indlæste billeder, har indikeret, at elementerne i et billede for eksempel kunne identificeres af den generative AI og derefter komponeres i en skriftlig fortælling, der forklarer billedet. Du kan bede den generative AI om at forklare, hvad billedet ser ud til at afbilde. Alt i alt vil visionsbearbejdningen være en bemærkelsesværdig tilføjelse.

Synsbearbejdning eller billedanalysefunktion er endnu ikke tilgængelig til offentlig brug (ifølge OpenAI-webstedets blog):

  • "For at forberede billedinputkapaciteten til bredere tilgængelighed arbejder vi tæt sammen med en enkelt partner til at starte."

Kernen i alt dette er, at det er hjertevarmende at indse, at GPT-4 tilsyneladende har evnen til at lave billedinput og analyse. Mange venter spændt på den offentlige udgivelse af denne funktion. Kudos til OpenAI for at skubbe ind i den multimodale arena.

Så vi har tekst som input, plus billede som input (når den er tilgængelig for offentlig brug) og tekst som output.

Nogle har dog været håndskrevne i AI-samfundet, som dette knap nok overholder forestillingen om multimodale. Ja, der er en tilstand mere, billedet som input. Men ikke et billede som output. Der er tilsyneladende ikke lyd som input og heller ikke lyd som output. Der er tilsyneladende ikke video som input og heller ikke video som output. Dem med en smarmy tilbøjelighed finder, at dette er "multimodalt" på de mest minimalistiske måder.

Modargumentet er, at man skal kravle før man går, og gå før man løber.

Jeg tror, ​​det dækker den første sætning i TR, og vi kan skifte til yderligere emner.

Flere Essentials af GPT-4

Jeg vil fremskynde nu, hvor du har en samlet tilføjet baggrund om denne sag.

Her er noget væsentligt som bemærket i OpenAI-blogindlægget om GPT-4:

  • "I løbet af de sidste to år har vi genopbygget hele vores dybe læringsstak og sammen med Azure co-designet en supercomputer fra bunden til vores arbejdsbyrde."

To hurtige pointer om dette.

For det første er indikationen af, at de har genopbygget hele deres dybe læringsstak, bestemt en bemærkelsesværdig bemærkning og præstation (det betyder, at de lavede om til matchningsmodellerne for beregningsmønster og valgte at omstrukturere, hvordan tingene fungerer under hætten). Godt for dem. Det tiggende spørgsmål, som nogle udtrykker, er, at det helt sikkert ville være rart at vide præcis, hvad de gjorde i denne genopbygning. TR og SC nævner noget, hvad der fandt sted, men ikke i nogen dybdegående grad.

Selvfølgelig kan du overbevisende argumentere for, at de ikke burde afsløre deres hemmelige sauce. De er ikke forpligtet til at gøre det. Hvorfor yde støtte til deres konkurrenter unødigt? Den anden side af medaljen hævder, at for at forbedre AI og samfundet alt i alt, ville det formentlig hjælpe med at fremme generativ AI, hvilket tilsyneladende vil være godt for menneskeheden (håber man).

Vi er tilbage til den squishy AI Ethics og AI Law skillelinje.

For det andet indikerer den citerede bemærkning, at de har designet en supercomputer fra bunden. Udover interessen for, hvad denne supercomputer gør, og hvordan den præcis fungerer, hvoraf nogle er blevet forklaret, bringer dette en helt anden sag op.

Nogle bekymrer sig om, at generativ AI er ved at blive et spil med store penge. Kun de teknologiske virksomheder med de største penge og de største ressourcer vil være i stand til at udtænke og udforme generativ AI. Grunden til, at der sættes spørgsmålstegn ved dette, er, at vi måske kommer til at have generativ AI, der kun er stramt kontrolleret af en håndfuld teknologifirmaer. Vi kan blive stærkt afhængige af disse firmaer og deres varer.

Er vi potentielt nødt til at bruge eksisterende love eller udtænke nye AI-love for at forhindre, at en koncentration af generativ AI er i den snævre kommando af blot nogle få?

Noget at gruble over.

Hvis du venter på, at skoen falder i form af en utrolig massiv forskel mellem ChatGPT og GPT-4, så tag et kig på dette fra OpenAI-blogindlægget om GPT-4:

  • "I en afslappet samtale kan skelnen mellem GPT-3.5 og GPT-4 være subtil. Forskellen kommer frem, når kompleksiteten af ​​opgaven når en tilstrækkelig tærskel - GPT-4 er mere pålidelig, kreativ og i stand til at håndtere meget mere nuancerede instruktioner end GPT-3.5."

Jeg har fundet ud af, at denne mangel på karakteristisk forskel i nogen grad er tilfældet, nemlig at hvis du laver hverdagens tomgang med ChatGPT og gør det samme med GPT-4, er du måske ikke særlig klar over, at GPT-4 generelt anses for at være mere kraftfuld .

Et aspekt, der synes at være et fremtrædende aspekt, består i at etablere kontekst for dine samtaler med de to generative AI-apps.

Her er hvad jeg mener.

Når du bruger en generativ AI-app, springer du til tider bare ind i en samtale, som du starter og fortsætter sammen med AI'en. I andre tilfælde begynder du med at fortælle AI konteksten af ​​samtalen. For eksempel kan jeg starte med at fortælle den generative AI, at jeg vil diskutere bilmotorer med AI'en, og at jeg vil have AI'en til at foregive, at den er en bilmekaniker. Dette sætter derefter scenen eller indstillingen for, at AI'en reagerer i overensstemmelse hermed.

Mange mennesker, der bruger ChatGPT, indser ikke vigtigheden af ​​at sætte konteksten, når de første gang går i dialog med AI-appen. Det kan være en kæmpe forskel i forhold til hvilken respons du får. Jeg oplever ofte, at ChatGPT ikke finpudser særlig godt alene i forhold til bestemte sammenhænge. Den prøver, men kommer ofte til kort. Indtil videre ser det ud til, at GPT-4 virkelig skinner gennem brugen af ​​kontekstuel etablering.

Hvis du skal bruge generativ AI og ønsker at etablere sammenhænge, ​​når du gør det, vil jeg helt klart give GPT-4 en fordel i forhold til ChatGPT.

På et relateret element er der også et aspekt kendt som styrbarhed der spiller ind.

Nogle brugere af ChatGPT er blevet overrasket over nogle gange at få AI-appen til at give svar, der måske virker overdrevent humoristiske eller alt for kortfattede. Dette kan forekomme, hvis den generative AI registrerer noget i din inputprompt, der ser ud til at udløse den slags svar. Du spørger måske i spøg om noget og ikke indser, at dette så vil styre ChatGPT mod vittigheder og en lethjertet tone.

Ifølge OpenAI blogindlægget om GPT-4 og styrbarhed:

  • "I stedet for den klassiske ChatGPT-personlighed med en fast ordlyd, tone og stil, kan udviklere (og snart ChatGPT-brugere) nu foreskrive deres AI's stil og opgave ved at beskrive disse retninger i 'system'-meddelelsen. Systemmeddelelser giver API-brugere mulighed for i væsentlig grad at tilpasse deres brugeres oplevelse inden for rammerne."

Igen vil dette forbedre brugeroplevelsen med de generative AI-apps. Andre generative AI-producenter gør det samme, og vi vil uundgåeligt have næsten alle sådanne AI-apps med en form for styring og kontekstuel etableringsfunktionalitet.

Den barske vej endnu forude

Et igangværende og bekymrende problem, der ligger til grund for generativ AI, er generelt, at alle mulige slags ubehagelige og direkte forstyrrende output kan produceres.

I mine spalteposter har jeg dækket disse forskellige og nøgternt bekymringer:

  • Generativ AI produceret fejl
  • Generativ AI produceret falskheder
  • Generative AI Embedded Biases
  • AI Hallucinationer
  • Indtrængen i privatlivets fred
  • Svagheder i datafortrolighed
  • Disinformationsspreder
  • Misinformation Propagator
  • Dobbeltbrug til våben
  • Overreliance af mennesker
  • Økonomiske indvirkninger på mennesker
  • Styrkelse af cyberkriminalitet
  • Osv

Nogle rygter var, at GPT-4 på magisk og mirakuløst vis ville rydde op og løse alle disse generative AI-sygdomme.

Ingen med et ordentligt hoved på skuldrene troede, at sådan et rygte kunne holde vand. Det er meget svære AI-problemer. De løses ikke uden videre. Der er endnu meget at gøre for at kæmpe med disse vedvarende og irriterende vanskeligheder. Det vil sandsynligvis tage en landsby at erobre litanien af ​​AI-etiske spørgsmål, der er indviklet i miljøet med generativ AI.

For at give kredit, hvor der skal krediteres, har OpenAI forsøgt at forklare, hvordan de løser disse mange forskellige udfordringer. De af jer, der er interesseret i AI-etik, bør overveje at nærlæse TR og SC.

Her er for eksempel nogle almindelige kommentarer om GPT-4 som angivet af OpenAI i TR:

  • "GPT-4 kan generere potentielt skadeligt indhold, såsom råd om planlægning af angreb eller hadefulde ytringer. Det kan repræsentere forskellige samfundsmæssige skævheder og verdenssyn, som måske ikke er repræsentative for brugernes hensigt eller for almindeligt fælles værdier. Det kan også generere kode, der er kompromitteret eller sårbar. De yderligere muligheder i GPT-4 fører også til nye risikooverflader."

Desuden siger de dette i TR:

  • "Gennem denne analyse finder vi ud af, at GPT-4 har potentialet til at blive brugt til at forsøge at identificere privatpersoner, når de suppleres med eksterne data. Vi finder også, at selvom GPT-4's cybersikkerhedskapaciteter ikke er langt overlegne i forhold til tidligere generationer af LLM'er, fortsætter den tendensen med potentielt at sænke omkostningerne ved visse trin i et vellykket cyberangreb, såsom gennem social engineering eller ved at forbedre eksisterende sikkerhedsværktøjer . Uden sikkerhedsbegrænsninger er GPT-4 også i stand til at give mere detaljeret vejledning om, hvordan man udfører skadelige eller ulovlige aktiviteter."

Jeg har ikke spaltepladsen her til at dække alle de mange ting, der er forbundet med disse vanskeligheder. Vær på udkig efter yderligere spaltedækning i min løbende analyse af generativ AI fra et AI-etik- og AI-lovperspektiv.

Det ser ud til at være umagen værd at tage et øjeblik og erkende, at OpenAI har stillet deres identifikation af, hvordan de griber disse vanskelige udfordringer an. Man kan sige, at der ikke var nogen grund til, at de skulle gøre det. De kunne bare opføre sig, som om der ikke er noget at se der. Eller de kunne bare lave nogle vage håndvifter og hævde, at de gjorde en masse smarte ting for at håndtere disse problemer.

Heldigvis har de valgt den fornuftige tilgang med at forsøge at komme derud foran de modreaktioner og brynslag, der normalt følger med generative AI-udgivelser. De sigter formentlig efter at vise deres seriøsitet og engagement i at udrydde disse problemer og forsøge at afbøde eller løse dem.

Jeg vil give den ekstra tanke, at AI-området alt i alt vil få hårde tæsk, hvis der ikke er en løbende og anstrengende indsats for at forfølge disse sager på en ligefrem og forestående måde. At tage en skjult black-box-tilgang er nødt til at blive vrede blandt offentligheden som helhed. Du kan også forudse, at hvis AI-virksomheder ikke forsøger at håndtere disse problemer, er oddsene, at lovgivere og tilsynsmyndigheder vil blive draget ind i disse spørgsmål, og en tsunami af nye AI-love vil peppe alle AI-producenterne og dem, der er på området. AI.

Nogle mener, at vi allerede er ved det tidspunkt.

De insisterer på, at selvom mange af AI-skaberne ser ud til at dele, hvad de laver, er dette noget af en lusket form for plausibel benægtelse. Kort sagt, fortsæt og udlæg AI, der er rystende og åbenlyst forkert, i stedet for at vente, indtil tingene er bedre udtænkt, og afværge dem i AI-etik og AI-lov ved at proklamere, at du gør alt for at rette op på tingene. Jeg har ofte diskuteret denne "vent til klargjort" igangværende kontrovers i min klummedækning.

Ifølge TR:

  • "OpenAI har gentaget GPT-4 og vores implementeringsplan siden begyndelsen af ​​august for at forberede en mere sikker lancering. Vi mener, at dette har reduceret risikooverfladen, men har ikke helt elimineret den. Dagens implementering repræsenterer en balance mellem at minimere risikoen fra implementeringen, muliggøre positive use cases og lære af implementeringen.”

For at vende tilbage til sagen, nævnte jeg tidligere, at AI-hallucinationer er et fremherskende problem, når det kommer til generativ AI.

Igen, jeg bryder mig ikke om slagordet, men det ser ud til at have fanget. Grundpillen i problemet med AI-hallucinationer er, at de kan producere output, der indeholder meget skøre ting. Du tænker måske, at det er op til brugeren at afgøre, om udgangene er rigtige eller forkerte. En bekymring her er, at udgangene kan indeholde opdigtede ting, som brugeren ikke har nogen nem måde at bestemme er opfundet. De tror måske hele svinet på, hvad outputtet siger.

Der er også en subtil tendens til at blive lullet til at tro på outputtet af generativ AI. Normalt er outputtet skrevet i en tone og en måde, der antyder en sikker antydning af selvtillid. Forudsat at du bruger generativ AI regelmæssigt, er det let at blive lullet til at se sandfærdigt materiale meget af tiden. Du kan så let blive narre, når noget opdigtet bliver plukket ind i midten af, hvad der ellers ser ud til at være et fuldstændigt fornuftigt og faktafyldt genereret essay.

Her er, hvad TR siger om GPT-4:

  • "GPT-4 har en tendens til at 'hallucinere', dvs. 'producere indhold, der er useriøst eller usandt i forhold til bestemte kilder.' Denne tendens kan være særlig skadelig, da modeller bliver mere og mere overbevisende og troværdige, hvilket fører til overdreven tillid til dem af brugerne. Kontraintuitivt kan hallucinationer blive farligere, efterhånden som modeller bliver mere sandfærdige, da brugere opbygger tillid til modellen, når den giver sandfærdig information på områder, hvor de har en vis fortrolighed."

Den gode nyhed er, at der er blevet gjort en indsats og synes at være i gang for at forsøge at reducere chancerne for AI-hallucinationer i GPT-4. Der gøres også påstand om, at GPT-4 overgår GPT-3.5 med hensyn til at afværge AI-hallucinationer, selvom det gør det klart, at de stadig vil forekomme.

Her er TR på dette:

  • "På interne evalueringer scorer GPT-4-lanceringen 19 procentpoint højere end vores seneste GPT-3.5-model til at undgå hallucinationer i åbne domæner og 29 procentpoint højere til at undgå hallucinationer med lukket domæne."

For at lukke denne del af diskussionen for nu, konfronterer generativ AI fra alle AI-producenter disse problemer. Ingen har på en eller anden måde kureret dette. Hvis du leder efter hårde AI-problemer, opfordrer jeg dig til at hoppe i disse farvande og hjælpe. Der er masser af arbejde at gøre.

Konklusion

Når en storfilm har eksisteret i et stykke tid og er gået fra biograferne til hjemmestreaming, har en hel del mennesker sandsynligvis set filmen eller ved noget om den fra andre, der har set den. Derefter, når en efterfølger annonceres og bliver filmet, kan forventningen nå astronomiske niveauer.

JJ Abrams, den nu legendariske filmskaber for dele af Star Wars-serien og genstarten af ​​Star Trek, sagde dette om efterfølgere: "Der er ikke noget galt med at lave efterfølgere, de er bare nemmere at sælge."

Edwin Catmull, medstifter af Pixar understregede dette om efterfølgere: "Tro mig, efterfølgere er lige så svære at lave som originale film."

Hvis du er interesseret i at se blockbusteren ChatGPT, kan du nemt tilmelde dig. Efterfølgeren GPT-4 er lidt sværere at få adgang til. Vær også klar over, at der er mange andre tilgængelige film, ja, andre generative AI-apps tilgængelige, så du vil måske sikre dig, at din filmoplevelse (også kaldet generativ AI) er varieret og tilfredsstillende.

En sidste nøgtern bemærkning. Vær opmærksom på, at det indhold, du kan støde på, kan være PG13, R eller endda NC-17. Husk det.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/03/15/what-you-need-to-know-about-gpt-4-the-just-released-successor-to-generative- ai-chatgpt-plus-ai-ethics-and-ai-law-overvejelser/