Generativ AI ChatGPT kommer til at være overalt, når API-portalen snart bliver åbnet, hvilket forvirrer AI-etik og AI-lovgivning

Frigør Kraken!

Du er utvivlsomt bekendt med den berømte slagord, som især blev udtalt af skuespilleren Liam Neeson i The Clash of the Titans når han befaler, at det legendariske søuhyre skal løslades, med det formål at skabe enorm kaos og stor ødelæggelse. Linjen er blevet gentaget i det uendelige og affødte alle mulige memes. På trods af de forskellige parodier fornemmer de fleste stadig i det mindste visceralt, at bemærkningen forudsiger, at noget af en skyggefuld og farlig fremkomst er ved at blive sluppet løs.

Måske kan den samme følelse anvendes i disse dage på kunstig intelligens (AI).

Tillad mig at uddybe.

En nylig meddelelse indikerede, at en nu rungende berømt AI-app kaldet ChatGPT lavet af organisationen OpenAI snart vil blive gjort tilgængelig for andre programmer. Det er store nyheder. Det siger jeg, selvom kun lidt af de almindelige medier har taget op på udmeldingen. Bortset fra flygtige omtaler, vil den fulde virkning af denne kommende adgang være temmelig markant.

I dagens klumme vil jeg forklare, hvorfor det er tilfældet. Du kan forberede dig derefter.

Nogle er overbevist om, at dette vil svare til at slippe Kraken løs, nemlig at alle slags dårlige ting vil opstå. Andre ser dette som at gøre en vigtig ressource tilgængelig, der kan booste tonsvis af andre apps ved at udnytte ChatGPTs store muligheder. Det er enten den værste af tider eller den bedste af tider. Vi vil heri overveje begge sider af debatten, og du kan selv bestemme, hvilken lejr du lander i.

Ind i alt dette kommer en række overvejelser om AI-etik og AI-lov.

Vær opmærksom på, at der er løbende bestræbelser på at gennemsyre etiske AI-principper i udviklingen og anvendelsen af ​​AI-apps. Et voksende kontingent af bekymrede og tidligere AI-etikere forsøger at sikre, at bestræbelserne på at udtænke og vedtage AI tager hensyn til et syn på at gøre AI til gode og afværge AI For Bad. Ligeledes er der foreslået nye AI-love, der bliver fløjtet rundt som potentielle løsninger for at forhindre AI-bestræbelser fra at gå amok med menneskerettigheder og lignende. For min løbende og omfattende dækning af AI-etik og AI-lovgivning, se linket her , linket her, For blot at nævne nogle få.

Der har været voksende betænkeligheder ved, at ChatGPT og andre lignende AI-apps har en grim undermave, som vi måske ikke er klar til at håndtere. For eksempel har du måske hørt, at elever i skoler potentielt er i stand til at snyde, når det kommer til at skrive tildelte essays via ChatGPT. AI'en skriver alt for dem. I mellemtiden er den studerende i stand til tilsyneladende frit at aflevere essayet, som om de skrev fra deres egen snert. Ikke hvad vi formentlig ønsker, at AI skal gøre for menneskeheden.

Et par vigtige ting kan være nyttige for at sætte scenen for, hvad det hele handler om.

ChatGPT er en type AI, der almindeligvis omtales som Generativ AI. Disse trending generativ-baserede AI-apps giver dig mulighed for at indtaste en kort prompt og få appen til at generere output for dig. I tilfælde af ChatGPT er outputtet tekst. Således indtaster du en tekstprompt, og ChatGPT-appen producerer tekst til dig. Jeg har en tendens til at beskrive dette som en særlig undertype af Generativ AI, der er finpudset til at generere tekst-til-essay-output (der er andre undertyper såsom tekst-til-billeder, tekst-til-video, og så videre).

AI-producenten af ​​ChatGPT har indikeret, at en API (Application Programming Interface) snart vil blive gjort tilgængelig for AI-appen. Kort sagt er en API et middel til at tillade andre programmer at gå videre og bruge et program, der gør en portal tilgængelig i den givne applikation. Dette betyder, at næsten ethvert andet program på denne planet potentielt kan udnytte brugen af ​​ChatGPT (godt, som licenseret og efter godkendelse af AI-producenten af ​​ChatGPT, som vil blive yderligere diskuteret et øjeblik heri).

Resultatet er, at brugen og brugen af ​​ChatGPT potentielt kan skyde gennem taget.

Hvorimod der i dag er et imponerende antal tilmeldinger, der involverer personer, der på en individuel grundlag kan bruge ChatGPT, der er begrænset af AI-producenten til en million brugere, vil dette faktisk sandsynligvis være en dråbe i spanden af, hvad der er ved at komme.

Indse, at de eksisterende millioner tilmeldinger består af en del, der brugte ChatGPT på en engangs bold, og så efter at spændingen tog af, har de ikke brugt det siden. Mange blev formentlig tiltrukket af AI-appen som et viralt reaktivt svar på sociale medier. Kort sagt, hvis alle andre ville bruge det, ville de også gøre det. Efter nogle indledende eksperimenter med den generativ-baserede AI, følte de sig tilfredse med, at de havde afværget deres FOMO (frygt for at gå glip af noget).

For at gøre det skarpt klart foreslår jeg ikke, at folk ikke bruger ChatGPT. De er. De, der har tilmeldt sig, oplever i stigende grad, at AI-appen er overbelastet. Masser og masser af mennesker bruger appen. Du får fra tid til anden et par smart sammensatte sørgelige indikationer på, at systemet er optaget, og du bør prøve igen senere. Ord på gaden er, at den eksisterende infrastruktur til ChatGPT har været anstrengende for at klare de ivrige fans, der bruger AI-appen.

Og selvom det ikke er noget at fnyse af at have en million potentielle brugere, vil antallet sandsynligvis let blive overskygget flere gange, når API'en er gjort tilgængelig. Udviklere af andre programmer, der i dag ikke har noget at gøre med generativ AI, vil gerne benytte den generative AI-vogn. De vil gerne forbinde deres program med ChatGPT. Deres hjerter håber er, at dette vil booste deres eksisterende program ind i stratosfæren af ​​popularitet.

Tænk på det på denne måde. Antag, at alle slags softwarevirksomheder, der laver programmer i dag, der når ud til mange millioner brugere, ofte når op til titusinder og hundreder af millioner af brugere, vælger at parre deres respektive programmer med ChatGPT. Dette tyder på, at mængden af ​​brugere, der bruger ChatGPT, kan blive skyhøje.

Kraken frigives.

Hvorfor vil forskellige softwarevirksomheder gerne parre sig med ChatGPT, undrer du dig måske?

Et ligetil svar er, at de lige så godt kan udnytte den fantastiske medvind, der presser ChatGPT frem og opad. Nogle vil gøre det af fornuftige årsager. Andre vil blot gøre det for at prøve at få deres eget udseende af femten minutters berømmelse.

Jeg kan godt lide at stratificere parringerne til ChatGPT som bestående af to hovedintentioner:

  • Ægte parring med ChatGPT
  • Falsk parring med ChatGPT

I det første tilfælde er tanken, at der er et bona fide-grundlag for at danne par med ChatGPT. Skaberne af et givet program er i stand til godt at formulere de håndgribelige og funktionelle fordele, der vil opstå på grund af en parring af deres program med ChatGPT. Vi kan alle i en rimelig sindsstemning se, at parringen er en match made in heaven.

For det andet tilfælde, der består af, hvad jeg betegner som falskeri, vil nogle søge at danne par med ChatGPT på en flyvsk eller rystende basis. Business casen består ikke af noget særligt indholdsmæssigt. Parringen er et desperat forsøg på at køre efter ChatGPT. Enhver rimelig inspektion ville afsløre, at parringen er marginal i værdi. Så det hænger lidt i luften, om du mener, at dette er en ordentlig eller forkert form for parring. Man kan prøve at argumentere for, at en bestemt parring med ChatGPT, selvom parringen ikke opnår andet end at booste brugen og ikke har nogen anden funktionel additiv værdi, formodentlig stadig er parring værdigt at foretage.

Lidt af en ulempe vil være dem, der fejlagtigt fremstiller parringen og får folk til at tro, at noget bemærkelsesværdigt sker, når det virkelig ikke er det. Vi kan helt sikkert forvente, at nogle vil prøve dette. Dem i AI Ethics er stærkt bekymrede over brugen af ​​slangeolie, der kommer ud af træværket. Der er også en chance for, at hvis dette går ud af hånden, kan vi se nye AI-relaterede love, der vil blive ansporet til at blive udarbejdet og vedtaget.

Lad os tage en nærmere udforskning af, hvad der udgør ægte parringer, og hvad der også udgør falske parringer.

For det første bør vi sikre os, at vi alle er på samme side om, hvad Generativ AI består af, og også hvad ChatGPT handler om. Når vi først har dækket den grundlæggende facet, kan vi udføre en overbevisende vurdering af, hvordan API'et i ChatGPT kommer til at ændre tingene radikalt.

Hvis du allerede er rigeligt fortrolig med Generative AI og ChatGPT, kan du måske skimme det næste afsnit og fortsætte med det afsnit, der følger efter det. Jeg tror på, at alle andre vil finde lærerige de vitale detaljer om disse forhold ved at læse afsnittet nøje og komme i gang.

En hurtig primer om Generativ AI og ChatGPT

ChatGPT er et interaktivt, samtaleorienteret system til generel kunstig intelligens, i det væsentlige en tilsyneladende harmløs generel chatbot, men ikke desto mindre bliver den aktivt og ivrig brugt af folk på måder, der fanger mange helt på vagt, som jeg vil uddybe kort. Denne AI-app udnytter en teknik og teknologi i AI-området, som ofte omtales som Generativ AI. AI genererer output såsom tekst, hvilket er hvad ChatGPT gør. Andre generativt-baserede AI-apps producerer billeder som billeder eller kunst, mens andre genererer lydfiler eller videoer.

Jeg vil fokusere på de tekstbaserede generative AI-apps i denne diskussion, da det er, hvad ChatGPT gør.

Generative AI-apps er ekstremt nemme at bruge.

Alt du skal gøre er at indtaste en prompt, og AI-appen genererer et essay til dig, der forsøger at svare på din prompt. Den komponerede tekst vil virke, som om essayet er skrevet af den menneskelige hånd og sind. Hvis du skulle indtaste en prompt, der sagde "Fortæl mig om Abraham Lincoln", vil den generative AI give dig et essay om Lincoln. Dette er almindeligvis klassificeret som generativ AI, der udfører tekst-til-tekst eller nogle foretrækker at kalde det tekst-til-essay produktion. Som nævnt er der andre former for generativ AI, såsom tekst-til-kunst og tekst-til-video.

Din første tanke kunne være, at denne generative evne ikke virker som en så stor sag med hensyn til at producere essays. Du kan nemt foretage en onlinesøgning på internettet og let finde tonsvis af essays om præsident Lincoln. Kickeren i tilfælde af generativ AI er, at det genererede essay er relativt unikt og giver en original komposition snarere end en kopi. Hvis du skulle prøve at finde det AI-producerede essay online et sted, ville du sandsynligvis ikke opdage det.

Generativ AI er præ-trænet og gør brug af en kompleks matematisk og beregningsmæssig formulering, der er blevet sat op ved at undersøge mønstre i skrevne ord og historier på tværs af nettet. Som et resultat af at undersøge tusinder og millioner af skrevne passager, kan AI'en udspy nye essays og historier, der er en blanding af det, der blev fundet. Ved at tilføje forskellige probabilistiske funktioner, er den resulterende tekst temmelig unik i forhold til, hvad der er blevet brugt i træningssættet.

Derfor har der været tumult om, at elever kan snyde, når de skriver essays uden for klasseværelset. En lærer kan ikke blot tage det essay, som bedrageriske elever hævder, er deres eget forfatterskab og søge at finde ud af, om det er kopieret fra en anden onlinekilde. Samlet set vil der ikke være noget endeligt allerede eksisterende essay online, der passer til det AI-genererede essay. Alt i alt må læreren modvilligt acceptere, at eleven skrev essayet som et originalt stykke arbejde.

Der er yderligere bekymringer om generativ AI.

En afgørende ulempe er, at essays produceret af en generativ-baseret AI-app kan have forskellige løgne indlejret, herunder åbenlyst usande fakta, fakta, der er vildledende portrætteret, og tilsyneladende fakta, der er helt opdigtede. Disse opdigtede aspekter omtales ofte som en form for AI hallucinationer, et slagord, som jeg ikke favoriserer, men som desværre synes at vinde populær indpas alligevel (for min detaljerede forklaring om, hvorfor dette er elendig og uegnet terminologi, se min dækning på linket her).

Jeg vil gerne afklare et vigtigt aspekt, før vi går ind i de tykke ting om dette emne.

Der har været nogle sindssyge store påstande på sociale medier om Generativ AI hævder, at denne seneste version af AI faktisk er følende AI (nej, de tager fejl!). Dem i AI-etik og AI-lov er især bekymrede over denne spirende tendens med udstrakte påstande. Du kan høfligt sige, at nogle mennesker overvurderer, hvad nutidens AI faktisk kan. De antager, at AI har egenskaber, som vi endnu ikke har været i stand til at opnå. Det er uheldigt. Endnu værre, de kan tillade sig selv og andre at komme i alvorlige situationer på grund af en antagelse om, at AI'en vil være sansende eller menneskelignende i at kunne handle.

Antropomorf ikke AI.

Hvis du gør det, bliver du fanget i en klæbrig og hård afhængighedsfælde, hvor du forventer, at AI'en gør ting, den ikke er i stand til at udføre. Når det er sagt, er det seneste inden for generativ AI relativt imponerende for, hvad det kan. Vær dog opmærksom på, at der er betydelige begrænsninger, som du hele tiden bør huske på, når du bruger en generativ AI-app.

Hvis du er interesseret i den hurtigt voksende tumult om ChatGPT og Generative AI alt sammen, har jeg lavet en fokuseret serie i min klumme, som du måske finder informativ. Her er et blik, hvis et af disse emner fanger din lyst:

  • 1) Forudsigelser af Generative AI-fremskridt på vej. Hvis du vil vide, hvad der sandsynligvis vil udfolde sig om AI i løbet af 2023 og derefter, herunder kommende fremskridt inden for generativ AI og ChatGPT, vil du gerne læse min omfattende liste over 2023-forudsigelser på linket her.
  • 2) Generativ AI og mental sundhed rådgivning. Jeg valgte at gennemgå, hvordan generativ AI og ChatGPT bliver brugt til rådgivning om mental sundhed, en besværlig tendens, ifølge min fokuserede analyse på linket her.
  • 3) Grundlæggende om generativ AI og ChatGPT. Dette stykke udforsker nøgleelementerne i, hvordan generativ AI fungerer, og dykker især ned i ChatGPT-appen, herunder en analyse af buzz og fanfare, kl. linket her.
  • 4) Spænding mellem lærere og studerende over generativ AI og ChatGPT. Her er de måder, hvorpå eleverne vil bruge generativ kunstig intelligens og ChatGPT. Derudover er her måder, hvorpå lærere kan kæmpe med denne flodbølge. Se linket her.
  • 5) Kontekst og generativ brug af kunstig intelligens. Jeg lavede også en årstidsbestemt tunge-i-kind-undersøgelse om en julemandsrelateret kontekst, der involverede ChatGPT og generativ AI på linket her.
  • 6) Svindlere, der bruger generativ AI. På en ildevarslende bemærkning har nogle svindlere fundet ud af, hvordan man bruger generativ AI og ChatGPT til at begå fejl, herunder generering af fup-e-mails og endda producere programmeringskode til malware, se min analyse på linket her.
  • 7) Rookie-fejl ved brug af generativ AI. Mange mennesker både overskrider og overraskende underskrider, hvad generativ AI og ChatGPT kan gøre, så jeg kiggede især på den underskydning, som AI-rookies har en tendens til at lave, se diskussionen på linket her.
  • 8) Håndtering af generative AI-prompter og AI-hallucinationer. Jeg beskriver en førende tilgang til at bruge AI-tilføjelser til at håndtere de forskellige problemer, der er forbundet med at forsøge at indtaste passende prompter i generativ AI, plus der er yderligere AI-tilføjelser til at detektere såkaldte AI-hallucinerede output og falskheder, som dækket kl linket her.
  • 9) Afviser Bonehead-påstande om at detektere generative AI-producerede essays. Der er et misforstået guldfeber af AI-apps, der proklamerer at være i stand til at fastslå, om et givet essay var menneskeproduceret versus AI-genereret. Alt i alt er dette vildledende, og i nogle tilfælde er det en knoklet og uholdbar påstand, se min dækning på linket her.
  • 10) Rollespil via generativ AI kan give mentale ulemper. Nogle bruger generativ AI såsom ChatGPT til at spille rollespil, hvorved AI-appen reagerer på et menneske, som om det eksisterede i en fantasiverden eller andre opdigtede omgivelser. Dette kan have konsekvenser for mental sundhed, se linket her.
  • 11) Afsløring af rækken af ​​udsendte fejl og usandheder. Forskellige indsamlede lister er ved at blive sammensat for at forsøge at fremvise karakteren af ​​ChatGPT-producerede fejl og usandheder. Nogle mener, at dette er væsentligt, mens andre siger, at øvelsen er forgæves, se min analyse på linket her.
  • 12) Skoler, der forbyder generativ AI ChatGPT, mangler båden. Du ved måske, at forskellige skoler såsom New York City (NYC) Department of Education har erklæret et forbud mod brugen af ​​ChatGPT på deres netværk og tilhørende enheder. Selvom dette kan virke som en nyttig forholdsregel, flytter den ikke nålen og savner desværre helt båden, se min dækning på linket her.

Du vil måske finde af interesse, at ChatGPT er baseret på en version af en forgænger AI-app kendt som GPT-3. ChatGPT anses for at være et lidt næste skridt, kaldet GPT-3.5. Det forventes, at GPT-4 sandsynligvis vil blive frigivet i foråret 2023. GPT-4 vil formentlig være et imponerende skridt fremad i forhold til at kunne producere tilsyneladende endnu mere flydende essays, gå dybere og være en ærefrygt -inspirerende vidunder med hensyn til de kompositioner, den kan producere.

Du kan forvente at se en ny runde af udtrykt undren, når foråret kommer, og det seneste inden for generativ kunstig intelligens frigives.

Jeg bringer dette op, fordi der er en anden vinkel at huske på, bestående af en potentiel akilleshæl til disse bedre og større generative AI-apps. Hvis en AI-leverandør stiller en generativ AI-app til rådighed, der skummende udspyder urenheder, kan det ødelægge disse AI-skaberes håb. En samfundsmæssig afsmitning kan få al generativ AI til at få et seriøst sort øje. Folk vil utvivlsomt blive ret kede af dårlige output, som allerede er sket mange gange og ført til larmende samfundsmæssige fordømmelsesreaktioner mod AI.

En sidste advarsel for nu.

Hvad end du ser eller læser i et generativt AI-svar synes skal formidles som rent faktuelle (datoer, steder, personer osv.), sørg for at forblive skeptisk og være villig til at dobbelttjekke, hvad du ser.

Ja, datoer kan opdigtes, steder kan finde på, og elementer, som vi normalt forventer at være hævet over bebrejdelser, er alle underlagt mistanke. Tro ikke på, hvad du læser, og hold et skeptisk øje, når du undersøger generative AI-essays eller output. Hvis en generativ AI-app fortæller dig, at Abraham Lincoln fløj rundt i landet i sit eget private jetfly, ville du utvivlsomt vide, at dette er malarky. Desværre er nogle mennesker måske ikke klar over, at jetfly ikke var til stede i hans tid, eller de ved måske, men undlader at bemærke, at essayet fremsætter denne frekke og skandaløst falske påstand.

En stærk dosis sund skepsis og en vedvarende tankegang af vantro vil være dit bedste aktiv, når du bruger generativ AI.

Vi er klar til at gå ind i næste fase af denne opklaring.

Udløser Udyret

Nu hvor vi har etableret det grundlæggende, kan vi dykke ned i de forretningsorienterede og samfundsmæssige konsekvenser på grund af ChatGPT API-aspekterne.

En meddelelse blev for nylig udgivet af Microsoft i forbindelse med OpenAI om den kommende tilgængelighed af ChatGPT på Microsofts Azure cloud platform (pr. online opslag med titlen "General Availability of Azure OpenAI Service Expands Access to Large, Advanced AI Models with Added Enterprise Benefits", 16. januar 2023):

  • "Store sprogmodeller er hurtigt ved at blive en vigtig platform for folk til at innovere, anvende AI til at løse store problemer og forestille sig, hvad der er muligt. I dag er vi glade for at kunne annoncere den generelle tilgængelighed af Azure OpenAI Service som en del af Microsofts fortsatte forpligtelse til at demokratisere AI og igangværende partnerskab med OpenAI. Med Azure OpenAI Service, der nu er generelt tilgængelig, kan flere virksomheder ansøge om adgang til de mest avancerede AI-modeller i verden – inklusive GPT-3.5, Codex og DALL•E 2 – understøttet af de pålidelige funktioner i virksomhedskvalitet og AI-optimeret infrastruktur af Microsoft Azure, for at skabe banebrydende applikationer. Kunder vil også kunne få adgang til ChatGPT – en finjusteret version af GPT-3.5, der er blevet trænet og kører inferens på Azure AI-infrastruktur – gennem Azure OpenAI Service snart."

Du har måske bemærket i denne erklæring, at andre forskellige AI-apps, der er blevet udviklet af OpenAI, også vil være tilgængelige. Faktisk har nogle af disse AI-apps allerede været tilgængelige i et stykke tid, som nævnt yderligere i den seneste udtalelse ovenfor: "Vi debuterede Azure OpenAI Service i november 2021 for at gøre det muligt for kunder at udnytte kraften i generative AI-modeller i stor skala med virksomheden lover, at kunderne er kommet til at forvente af vores Azure cloud og computerinfrastruktur – sikkerhed, pålidelighed, compliance, databeskyttelse og indbyggede Responsible AI-funktioner” (ibid).

Jeg nævnte tidligere, at både AI Ethics og AI Law forsøger at balancere AI til gode forhåbninger med potentiale AI For Bad der til tider kan opstå. Inden for AI-riget er der en bevægelse på vej mod at have Ansvarlig AI eller nogle gange opfundet som Trustworthy AI eller Human-Centered AI, se min dækning på linket her. Alle AI-skabere opfordres til at udtænke og orientere deres AI mod AI til gode og søger åbenlyst at begrænse eller afbøde evt AI For Bad der kan dukke op.

Dette er en høj ordre.

Under alle omstændigheder behandlede den førnævnte erklæring de ansvarlige AI-overvejelser:

  • "Som industrileder erkender vi, at enhver innovation inden for kunstig intelligens skal udføres ansvarligt. Dette bliver endnu vigtigere med kraftfulde, nye teknologier som generative modeller. Vi har taget en iterativ tilgang til store modeller og arbejder tæt sammen med vores partner OpenAI og vores kunder for omhyggeligt at vurdere use cases, lære og håndtere potentielle risici. Derudover har vi implementeret vores egne autoværn til Azure OpenAI Service, der stemmer overens med vores ansvarlige AI-principper. Som en del af vores begrænsede adgangsramme skal udviklere ansøge om adgang og beskrive deres tilsigtede anvendelsestilfælde eller applikation, før de får adgang til tjenesten. Indholdsfiltre, der er unikt designet til at fange misbrug, hadefuldt og stødende indhold, overvåger konstant input til tjenesten samt det genererede indhold. I tilfælde af en bekræftet overtrædelse af politikken kan vi bede udvikleren om at træffe øjeblikkelige foranstaltninger for at forhindre yderligere misbrug” (ibid).

Kernen i det ansvarlige AI-perspektiv er, at ved at kræve en formel anmodning om at få adgang til ChatGPT på program-API-basis, er der en chance for at luge ud i de ubehagelige indsendelser. Hvis der er passende due diligence i at vælge, hvilke andre firmaer og deres programmer der kan få adgang til ChatGPT, er der måske en kæmpe chance for at forhindre den fulde vrede fra en frigivet Kraken.

Måske ja, måske ikke.

Nogle eksperter vrider deres hænder over, at mulighederne for at tjene penge ved at tillade ChatGPT API'et at blive taget i brug, vil belaste den modvægtige idé om at ville holde udyret rimeligt og sikkert indesluttet. Vil kontrollen virkelig være tilstrækkelig omhyggelig på forhånd? Kan vi i stedet se, at der opstår en løs godkendelsesproces, efterhånden som mængden af ​​anmodninger kommer ud af kontrol? Nogle er bange for, at kun når katten er ude af sækken, kan der virkelig ske en forsinket grundigere undersøgelse, selvom skaden allerede vil være sket inden da.

Nå, du kan i det mindste give ret til, at der er en undersøgelsesproces involveret. Der er nogle generative AI-apps, der enten mangler en sammenhængende kontrolproces, eller som er af en overfladisk karakter. Derudover er der open source-versioner af generativ AI, som generelt kan bruges af næsten alle, der ønsker at gøre det, omend nogle få licensbegrænsninger formodes at blive fulgt (at prøve at håndhæve dette er sværere, end det måske ser ud til).

Lad os tage et hurtigt kig på de eksisterende regler vedrørende begrænsning af adgang til Azure OpenAI-tjenesten for at se, hvad andre softwareproducenter skal gøre for potentielt at oprette forbindelse til ChatGPT. I henhold til de online offentliggjorte Microsoft-politikker (seneste opslag angivet som 14. december 2022):

  • "Som en del af Microsofts forpligtelse til ansvarlig AI, designer og frigiver vi Azure OpenAI Service med det formål at beskytte enkeltpersoners og samfundets rettigheder og fremme gennemsigtig interaktion mellem mennesker og computere. Af denne grund begrænser vi i øjeblikket adgangen til og brugen af ​​Azure OpenAI, herunder begrænsning af adgangen til muligheden for at ændre indholdsfiltre og modificere misbrugsovervågning. Azure OpenAI kræver registrering og er i øjeblikket kun tilgængelig for administrerede kunder og partnere, der arbejder med Microsoft-kontoteams. Kunder, der ønsker at bruge Azure OpenAI, er forpligtet til at indsende en registreringsformular både for indledende adgang til eksperimentering og for godkendelse til at gå fra eksperimentering til produktion."
  • "Til eksperimenter bekræfter kunderne kun at bruge tjenesten til de tilsigtede anvendelser, der blev indsendt på registreringstidspunktet og forpligter sig til at inkorporere menneskeligt tilsyn, stærke tekniske begrænsninger for input og output, feedbackkanaler og grundig test. Til produktion forklarer kunderne, hvordan disse er blevet implementeret for at mindske risikoen. Kunder, der ønsker at ændre indholdsfiltre og ændre misbrugsovervågning, efter at de er gået ombord på tjenesten, er underlagt yderligere scenariebegrænsninger og skal registreres her."
  • "Adgang til Azure OpenAI Service er underlagt Microsofts eget skøn baseret på berettigelseskriterier og en vurderingsproces, og kunder skal anerkende, at de har gennemgået og accepteret Azures servicevilkår for Azure OpenAI Service. Microsoft kan kræve, at kunderne genbekræfter disse oplysninger. Azure OpenAI Service stilles til rådighed for kunder i henhold til vilkårene for deres abonnement på Microsoft Azure Services, herunder Azure OpenAI-sektionen i Microsofts produktvilkår. Gennemgå venligst disse vilkår omhyggeligt, da de indeholder vigtige betingelser og forpligtelser, der styrer din brug af Azure OpenAI Service."

Det er på Microsofts side af tingene.

OpenAI har også sine brugspolitikker forbundet med sin API:

  • "Vi ønsker, at alle skal kunne bruge vores API sikkert og ansvarligt. Til det formål har vi oprettet use-case og indholdspolitikker. Ved at følge dem hjælper du os med at sikre, at vores teknologi bliver brugt til gode. Hvis vi opdager, at dit produkt ikke følger disse politikker, vil vi bede dig om at foretage de nødvendige ændringer. Hvis du ikke overholder det, kan vi tage yderligere skridt, herunder at lukke din konto."
  • "Vi forbyder byggeprodukter, der er målrettet mod følgende use-cases:"
  • "— Ulovlige eller skadelige industrier"
  • "— Misbrug af personlige data"
  • "— Fremme uærlighed"
  • "— Bedrageri eller manipulation af brugere"
  • "— Forsøger at påvirke politik"
  • "Følgende sæt brugssager indebærer en større risiko for potentiel skade: strafferet, retshåndhævelse, juridiske, offentlige og civile tjenester, sundhedspleje, terapi, wellness, coaching, finans, nyheder. For disse use-cases skal du:"
  • "1) Test vores modeller grundigt for nøjagtighed i din use case og vær gennemsigtig med dine brugere om begrænsninger"
  • "2) Sørg for, at dit team har domæneekspertise og forstår/følger relevante love"
  • "Vi tillader heller ikke dig eller slutbrugere af din applikation at generere følgende typer indhold:"
  • "— hader"
  • "— Chikane"
  • "- Vold"
  • "- Selvskade"
  • "- Seksuel"
  • "— Politisk"
  • "— Spam"
  • "- Bedrag"
  • "— Malware"

Et stort spørgsmål vil være, om disse idealer kan overholdes, hvis der er en inderlig strøm af anmodninger om at oprette forbindelse til ChatGPT. Måske vil der være en overvældende tsunami af anmodninger. Det menneskelige arbejde til at undersøge og omhyggeligt undersøge hver enkelt af dem kan være dyrt og vanskeligt at håndtere. Vil ønsket om at være passende restriktiv blive udvandet, utilsigtet i lyset af det enorme krav om adgang?

Som den berømte vittighed går, kan de bedste planer nogle gange brydes ved første kontakt med rige kræfter.

Der er også et stort spillerum i, hvordan man skal fortolke de angivne regler. Som vi generelt har set om stigningen i desinformation og misinformation, kan det være ret udfordrende at prøve at adskille hveden fra avnerne. Hvordan kan man afgøre, om genereret indhold overholder eller overtræder bestemmelserne om ikke at være hadefuldt, politisk, vildledende og lignende?

En truende vanskelighed kunne være, at hvis ChatGPT API'et gøres tilgængeligt for en softwareproducent, der parrer deres program med ChatGPT, og det resulterende output utvetydigt overtræder de angivne forskrifter, vil hesten så allerede være ude af stalden? Nogle tyder på, at der er en stærk mulighed for skade på omdømmet, som kan pådrages alle involverede parter. Hvorvidt dette kan overvindes ved blot at frakoble API'en til den pågældende gerningsmand er uklart. Skaden kan på en måde blive hængende og ødelægge tønden alt i alt. Der vil være masser af skyld til alle, der kommer.

Stratificering af API-parringerne

Jeg bemærkede tidligere, at parringerne til ChatGPT bekvemt kan grupperes i to hovedhensigter:

  • Ægte parring med ChatGPT
  • Falsk parring med ChatGPT

Lad os først undersøge de ægte eller bona fide parringer.

Som baggrund er måden, som dette sker på, noget ligetil. ChatGPT-appen giver andre programmer mulighed for at starte appen. Typisk vil dette bestå af f.eks. et program, vi kalder Widget, der sender til ChatGPT en prompt i tekstformat, og efter at ChatGPT har gjort sit, returneres et essay eller tekst til programmet Widget. Dette er næsten som en person, der gør det samme, selvom vi vil have et program til at udføre disse handlinger i stedet for en person, der gør det.

Antag for eksempel, at nogen udtænker et program, der foretager søgninger på nettet. Programmet spørger en bruger, hvad de vil søge efter. Programmet giver derefter brugeren en liste over forskellige søgehits eller fund, der forhåbentlig viser relevante websteder baseret på brugerforespørgslen.

Forestil dig, at firmaet, der laver dette websøgningsprogram, ønsker at pifte sin app op.

De anmoder om adgang til ChatGPT API. Antag, at de gør alt det rigtige papirarbejde og i sidste ende bliver godkendt. Deres program, der udfører websøgninger, skulle derefter ændres til at inkludere et opkald til ChatGPT-appen via API'et. Antag, at de vælger at lave disse mods.

Her er hvordan det så kan fungere helt. Når en bruger indtaster en forespørgsel til en websøgning i kerneprogrammet, udfører dette program ikke kun en konventionel søgning på nettet, men det sender også forespørgslen videre til ChatGPT via API'et. ChatGPT behandler derefter teksten og returnerer et resulterende essay til kerneprogrammet. Kerneprogrammet til websøgning præsenterer nu to facetter for brugeren, nemlig websøgeresultaterne og det yderligere udsendte essay fra ChatGPT.

En person, der bruger dette kerneprogram, vil ikke nødvendigvis vide, at ChatGPT blev brugt på backend. Det kan ske inden for rammerne af kerneprogrammet, og brugeren er lykkeligt uvidende om, at ChatGPT var involveret. På den anden side kunne kerneprogrammet udformes til at informere brugeren om, at ChatGPT bliver brugt. Dette afhænger normalt af, om skaberne af kerneprogrammet ønsker at afsløre, at den anden app, i dette tilfælde, ChatGPT, blev brugt. I nogle arrangementer insisterer producenten af ​​det påkaldte program på, at det API-påkaldende program skal lade brugerne vide, at det andet program bliver brugt. Det hele afhænger af præferencer og licensoplysninger.

For ægte parringer er her de sædvanlige fremgangsmåder:

  • 1) Lige pass-thru til ChatGPT
  • 2) Tilføjelse for at udvide ChatGPT
  • 3) Allied app, der falder sammen med ChatGPT
  • 4) Fuldt integreret fordybelse med ChatGPT

Kort sagt, i den første listede tilgang er ideen, at jeg kunne udtænke et program, der blot er en frontend for ChatGPT, og som sådan er alt, hvad mit program gør, at sende teksten til ChatGPT og få teksten tilbage fra ChatGPT. Jeg stiller mit program til rådighed for alle, der ønsker at bruge ChatGPT, og som ellers ikke havde tilmeldt sig at bruge det. Dette er én tilgang.

For det andet kan jeg udtænke et program, der fungerer som en tilføjelse til ChatGPT. For eksempel, når ChatGPT genererer et essay, kan det indeholde usandheder. Antag, at jeg laver et program, der undersøger ChatGPT-outputtet og forsøger at screene for usandheder. Jeg gør mit program tilgængeligt, så folk indtaster en tekstprompt i mit program, som derefter sender prompten til ChatGPT. ChatGPT producerer et essay, der kommer tilbage til mit program. Før mit program viser dig essayet, forhåndsscreener det essayet og forsøger at markere eller fjerne falskheder. Du ser så det resulterende essay, efter mit program har foretaget screeningen.

Den tredje tilgang består i at have en allieret app, der i forstand falder sammen med ChatGPT. Antag, at jeg udvikler et program, der hjælper folk med at lave kreativ skrivning. Mit program giver tips og forslag på dåse til, hvordan man skriver kreativt. Programmet tilskynder eller ansporer blot brugeren til at gøre det. I mellemtiden er det, jeg gerne vil kunne gøre, at vise brugeren, hvad kreativ skrivning består af. Som sådan etablerer jeg en API med ChatGPT. Mit program tager derefter en prompt fra brugeren og påberåber ChatGPT for at give et essay, der kan demonstrere kreativ skrivning. Dette kunne gøres iterativt og påberåbe ChatGPT flere gange i processen.

I tilfælde af den fjerde listede tilgang er ChatGPT fuldt integreret i et andet program eller et andet programsæt. For eksempel, hvis jeg havde en tekstbehandlingsapp og en regnearksapp, vil jeg måske integrere ChatGPT i disse apps. De ville på en måde fungere hånd i hånd med hinanden. Jeg dækker i en kommende klumme, hvor jeg sender den opslåede mulighed for, at Microsoft kunne vælge at infundere ChatGPT i deres kontorproduktivitetspakke, så vær på udkig efter den kommende analyse.

Det er så de vigtigste måder, hvorpå en ægte parring kan finde sted.

Lad os derefter overveje nogle af de falske parringer.

Her er nogle overordnede falske parringer, som du bør være opmærksom på:

  • Gimmick-parring med ChatGPT – bruger ChatGPT marginalt, hovedsageligt lavet til show og for at få omtale uden merværdi
  • Lokkende løfter om ChatGPT-parring – Softwareleverandør hævder, at de er midt i at parre sig med ChatGPT og søger at være i det skinnende søgelys, når virkeligheden er, at de ikke kommer til at gøre det og laver en klassisk hovedforfalskning og afgiver et falsk løfte
  • Knockoffs proklamerer at være ChatGPT-lignende – i stedet for at parre med ChatGPT, vil nogle softwareleverandører bruge noget andet, hvilket er fint, men de vil forsøge at antyde, at det er ChatGPT, når det ikke er det, i håb om at få nogle af eftergløderne fra ChatGPT
  • Andet – Der kan tænkes masser af yderligere udstrakte og indlysende ordninger

Der vil utvivlsomt være en masse skænderier i gang om alt dette. Det vil være en del af udgivelsen af ​​Kraken.

Konklusion

Tillad mig at kaste nogle skruenøgler og andre forhindringer ind i denne sag.

Hvad med omkostningerne?

I øjeblikket gør dem, der har tilmeldt sig at bruge ChatGPT, det gratis. Jeg har tidligere bemærket, at der på et tidspunkt skal være direkte indtægtsgenerering involveret. Dette kan indebære, at du bliver opkrævet et gebyr pr. transaktion eller måske betaler for et abonnement. En anden mulighed er, at annoncer kan bruges til at bringe dejen ind, hvorved der hver gang du bruger ChatGPT vises en annonce. Etc.

De, der vælger at etablere en parring med ChatGPT via API'en, bør seriøst overveje de potentielle omkostninger involveret. Der er sandsynligvis en omkostning forbundet med brugen af ​​Microsoft Azure-skyen til driften af ​​ChatGPT-appen. Det er bundet til at være en omkostning fra OpenAI at bruge ChatGPT API og påberåbe sig AI-appen. En softwareleverandør vil også afholde deres egne interne omkostninger, såsom at ændre deres eksisterende programmer til at bruge API'et eller udvikle programmer på ny omkring parringen med ChatGPT. Forestil dig både en startomkostning og et løbende vedligeholdelsessæt af omkostninger.

Essensen er, at denne lagdeling af omkostninger til en vis grad vil moderere guldfeberen mod at udnytte ChatGPT API. Softwareleverandører bør formentlig lave en forsigtig ROI (afkast af investering) beregning. Vil alt, hvad de kan gøre ved at udvide deres program ved at bruge ChatGPT, indbringe tilstrækkelige ekstra penge til at kompensere for omkostningerne?

Ikke alle vil nødvendigvis være helt så omkostningsbevidste. Hvis du har dybe lommer og tror, ​​at din brug af ChatGPT vil drive dit program ind i den mest kendte eller meget anerkendte verden af ​​apps, kan du beslutte, at prisen lige nu er det værd. Byg et navn til din app ved at køre på ChatGPT's jakkesæt. Når dit program først er populært eller på anden måde tjener penge, gør du enten op for den tidligere manglende overskud eller afskriver det som de omkostninger, der kræves for at komme ind i det store.

En lille startup, der støttes af et venturekapitalfirma (VC) er måske villig til at tære på en del af sin startinvestering for at blive parret med ChatGPT API. Berømmelse kan opstå øjeblikkeligt. Formue kan være et stykke hen ad vejen, men det er noget, der skal behandles senere. Grib rampelyset, når det er godt, som man siger.

Man formoder, at der kan være non-profit og sociale virksomheder, der vil beslutte sig for også at sparke trætten til dette. Antag, at et non-profit firma identificerer en fordelagtig brug af at påberåbe sig ChatGPT API, som tilsyneladende vil understøtte deres altruistiske eller samfundsmæssigt gavnlige mål. Måske indsamler de midler til dette via en online finansieringskampagne. Måske forsøger de at lave en aftale med sælgerne, så de betaler et nominelt beløb eller får brugen gratis.

Tiden vil vise det.

Den sidste pointe, som jeg vil efterlade dig med, er risikofaktoren.

Jeg vil ikke virke unødigt nedslået, men jeg nævnte tidligere, at output fra ChatGPT kan indeholde løgne og have andre potentielle ulemper. Sagen er, at hvis en softwareleverandør, der laver en app, bliver blandet ind i at bruge ChatGPT API'et, risikerer de at få sure og dystre output, som de burde forvente. Stik ikke hovedet i sandet.

Problemerne opstår, at disse udgange kan plette den app, der vælger at bruge dem. I den forstand kan din app, der i første omgang kører på ChatGPT's herlighed, også ende med at pløje ind i en murstensvæg, hvis man stoler på de output, der leveres via ChatGPT. Måske præsenteres output for brugerne, og dette forårsager et forfærdeligt tumult. De fjerner deres angst på dig og din app.

Til gengæld forsøger du at pege en finger på ChatGPT. Vil det få dig ud af gåden? Når først der er en stank, trænger den vidt og bredt, og få bliver skånet. I den retning kan det være, at gennem en udvidet brug af ChatGPT bliver bevidstheden om de dårlige output mere almindeligt kendt. Mærkeligt nok, eller ironisk nok, kunne den udvidede brug af ChatGPT på grund af API'en således skyde deres egen fod.

Jeg ønsker ikke at afslutte mine bemærkninger med et trist ansigt, så lad os prøve at skifte til et glad ansigt.

Hvis alle de ambitionsmæssige grænser og begrænsninger omhyggeligt og velovervejet følges og overholdes strengt, kan det være en god ting at benytte ChatGPT via API'et. Chancerne er også for, at dette yderligere vil anspore andre generative AI-apps til handling. Den stigende tidevand kunne stige alle både.

Det virker optimistisk.

Du ved måske, at Zeus siges at have kontrol over Kraken. Sofokles, den antikke græske dramatiker, sagde dette om Zeus: "Zeus' terninger falder altid heldigvis."

Måske vil det samme siges om, hvor generativ AI uundgåeligt vil lande, lad os i det mindste håbe det.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- åbnede-forvirrende-ai-etik-og-ai-lov/