Generativ AI ChatGPT kan foruroligende sluge dine private og fortrolige data, advarer AI-etik og AI-lovgivning

Nu ser du dine data, nu gør du det ikke.

I mellemtiden er dine dyrebare data så at sige blevet en del af kollektivet.

Jeg henviser til et aspekt, der kan være ret overraskende for dem af jer, der ivrigt og seriøst gør brug af det seneste inden for kunstig intelligens (AI). De data, du indtaster i en AI-app, er potentielt slet ikke helt privat for dig og dig alene. Det kan være, at dine data vil blive brugt af AI-producenten til formodentlig at søge at forbedre deres AI-tjenester eller måske bruges af dem og/eller endda deres allierede partnere til en række forskellige formål.

Du er nu blevet advaret.

Denne overdragelse af dine data sker på de mest uskadelige måder og af potentielt tusinder eller i størrelsesordenen millioner af mennesker. Hvordan det? Der er en type AI kendt som generativ AI, der for nylig har fået store overskrifter og den brede offentlighed. Den mest bemærkelsesværdige af de eksisterende generative AI-apps er en kaldet ChatGPT, som er udviklet af firmaet OpenAI.

Der er angiveligt omkring en million registrerede brugere til ChatGPT. Mange af disse brugere ser ud til at glæde sig over at prøve denne hotteste og nyeste generative AI-app. Processen er usædvanlig enkel. Du indtaster noget tekst som en prompt, og voila, ChatGPT-appen genererer et tekstoutput, der normalt er i form af et essay. Nogle omtaler dette som tekst-til-tekst, selvom jeg foretrækker at betegne det som tekst-til-essay, da dette ordsprog giver mere daglig mening.

I starten vil en nybegynder sandsynligvis indtaste noget sjovt og ubekymret. Fortæl mig om George Washingtons liv og tider, nogen kan komme ind som en opfordring. ChatGPT ville derefter producere et essay om vores legendariske første præsident. Essayet ville være fuldstændig flydende, og du ville være hårdt presset for at se, at det var produceret af en AI-app. En spændende ting at se ske.

Oddsene er, at efter at have spillet rundt i et stykke tid, vil et segment af nybegyndere være blevet mætte og muligvis vælge at stoppe med at lege med ChatGPT. De har nu overvundet deres FOMO (frygt for at gå glip af), efter at have eksperimenteret med AI-appen, som næsten alle ser ud til at snakke om. Gerning udført.

Nogle vil dog begynde at tænke på andre og mere seriøse måder at bruge generativ AI på.

Brug måske ChatGPT til at skrive det notat, som din chef har bedt dig om at skrive. Alt du skal gøre er at give en prompt med de punktopstillinger, du har i tankerne, og den næste ting du ved, er et helt notat blevet genereret af ChatGPT, som ville gøre din chef stolt af dig. Du kopierer det udsendte essay fra ChatGPT, indsætter det i virksomhedens officielle skabelon i din tekstbehandlingspakke og e-mailer det fornemme memorandum til din leder. Du er en million værd. Og du brugte din hjerne til at finde et praktisk værktøj til at gøre det hårde arbejde for dig. Klap dig selv på skulderen.

Det er ikke alt.

Ja, der er mere.

Husk på, at generativ AI kan udføre en række andre skriverelaterede opgaver.

Antag for eksempel, at du har skrevet en fortælling af en eller anden art til en værdsat kunde, og du vil meget gerne have en gennemgang af materialet, før det går ud af døren.

Easy-peasy.

Du indsætter teksten i din fortælling i en ChatGPT-prompt og instruerer derefter ChatGPT om at analysere den tekst, du komponerede. Det resulterende udsendte essay kan grave dybt i din formulering, og til din glædelige overraskelse vil forsøge at tilsyneladende inspicere betydningen af ​​det, du har sagt (går langt ud over at fungere som en stavekontrol eller en grammatikanalysator). AI-appen opdager muligvis fejl i logikken i din fortælling eller opdager måske modsætninger, som du ikke var klar over, var i dit helt eget forfatterskab. Det er næsten, som om du hyrede en udspekuleret menneskelig redaktør til at få øje på dit udkast og give en række nyttige forslag og bemærkede bekymringer (ja, jeg vil kategorisk sige, at jeg ikke forsøger at antropomorfisere AI-appen, især at en menneskelig redaktør er et menneske, mens AI-appen blot er et computerprogram).

Gudskelov, at du brugte den generative AI-app til at granske din dyrebare skrevne fortælling. Du ville utvivlsomt foretrække, at AI finder disse foruroligende skriftlige problemer frem for efter at have sendt dokumentet til din værdsatte klient. Forestil dig, at du havde komponeret fortællingen til en, der havde hyret dig til at udtænke en ganske vital skildring. Hvis du havde givet den originale version til klienten, før du gennemgik AI-appen, ville du måske lide stor forlegenhed. Kunden ville næsten helt sikkert nære alvorlig tvivl om dine evner til at udføre det arbejde, der blev anmodet om.

Lad os skrue op.

Overvej oprettelsen af ​​juridiske dokumenter. Det er åbenbart en særlig alvorlig sag. Ord og hvordan de er sammensat kan betyde et livligt juridisk forsvar eller en dyster juridisk katastrofe.

I min løbende forskning og rådgivning interagerer jeg regelmæssigt med en masse advokater, der er meget interesserede i at bruge AI inden for jura. Forskellige LegalTech-programmer bliver forbundet til AI-funktioner. En advokat kan bruge generativ AI til at sammensætte et udkast til en kontrakt eller komponere andre juridiske dokumenter. Derudover, hvis advokaten selv lavede et indledende udkast, kan de videregive teksten til en generativ AI-app såsom ChatGPT for at tage et kig og se, hvilke huller eller huller der kan blive opdaget. For mere om, hvordan advokater og det juridiske område vælger at gøre brug af AI, se min diskussion på linket her.

Vi er dog klar til at blive klogere på dette.

En advokat tager en udformet kontrakt og kopierer teksten til en prompt til ChatGPT. AI-appen producerer en anmeldelse til advokaten. Det viser sig, at flere gotchas er fundet af ChatGPT. Advokaten reviderer kontrakten. De kan også bede ChatGPT om at foreslå en omformulering eller gentage den sammensatte tekst for dem. En ny og bedre version af kontrakten produceres derefter af den generative AI-app. Advokaten griber den udsendte tekst og sætter den ind i en tekstbehandlingsfil. Af brevet går til deres klient. Mission fuldført.

Kan du gætte, hvad der også lige er sket?

Bag kulisserne og under hætten kunne kontrakten være blevet opslugt som en fisk i munden på en hval. Selvom denne AI-brugende advokat måske ikke er klar over det, kan kontraktteksten, som en prompt i ChatGPT, potentielt blive sludret af AI-appen. Det er nu foder til mønstermatching og andre beregningsmæssige forviklinger i AI-appen. Dette kan igen bruges på mange forskellige måder. Hvis der er fortrolige data i udkastet, er det også potentielt nu inden for rammerne af ChatGPT. Din prompt som givet til AI-appen er nu tilsyneladende en del af kollektivet på en eller anden måde.

Ydermere betragtes det outputtede essay også som en del af kollektivet. Hvis du havde bedt ChatGPT om at ændre udkastet for dig og præsentere den nye version af kontrakten, opfattes dette som et udskrevet essay. Outputtet fra ChatGPT er også en type indhold, der kan bevares eller på anden måde transformeres af AI-appen.

Yikes, du har måske uskyldigt givet private eller fortrolige oplysninger væk. Ikke godt. Derudover ville du ikke engang være klar over, at du havde gjort det. Ingen flag blev hejst. Et horn bragede ikke. Ingen blinkende lys slukkede for at chokere dig til virkelighed.

Vi kan forvente, at ikke-advokater nemt kan begå en sådan fejl, men for en erfaren advokat at begå den samme nybegynderfejl er næsten utænkeligt. Ikke desto mindre er der sandsynligvis juridiske fagfolk lige nu, der gør den samme potentielle bommert. De risikerer at overtræde et bemærkelsesværdigt element i advokat-klient-privilegiet og muligvis overtræde American Bar Association (ABA) Model Rules of Professional Conduct (MRPC). Især: "En advokat må ikke afsløre oplysninger vedrørende repræsentationen af ​​en klient, medmindre klienten giver informeret samtykke, offentliggørelsen er underforstået autoriseret for at udføre repræsentationen, eller offentliggørelsen er tilladt i henhold til punkt (b)" (citeret fra MRPC, og for hvilke undtagelserne knyttet til underafsnit b ikke synes at omfatte brug af en generativ AI-app på en ikke-sikker måde).

Nogle advokater vil måske forsøge at undskylde deres overtrædelse ved at hævde, at de ikke er tekniske troldmænd, og at de ikke ville have haft nogen klar måde at vide, at deres indtastning af fortrolige oplysninger i en generativ AI-app på en eller anden måde kan være et brud. ABA har gjort det klart, at en pligt for advokater omfatter at være ajour med kunstig intelligens og teknologi ud fra et juridisk perspektiv: ”For at opretholde den nødvendige viden og dygtighed bør en advokat holde sig ajour med ændringer i loven og dens praksis, bl.a. fordele og risici forbundet med relevant teknologi, engagere sig i efteruddannelse og uddannelse og overholde alle juridiske efteruddannelseskrav, som advokaten er underlagt” (ifølge MRPC).

Adskillige bestemmelser kommer ind i denne form for juridisk pligt, herunder at vedligeholde klientens fortrolige information (Regel 1.6), beskytte klientens ejendom såsom data (Regel 1.15), korrekt kommunikation med en klient (Regel 1.4), indhente klientens informerede samtykke (Regel 1.6), og sikring af kompetent repræsentation på vegne af en klient (Regel 1.1). Og der er også den lidet kendte, men meget bemærkelsesværdige AI-fokuserede resolution vedtaget af ABA: "At American Bar Association opfordrer domstole og advokater til at tage fat på de nye etiske og juridiske spørgsmål relateret til brugen af ​​kunstig intelligens ('AI') i lovens praksis, herunder: (1) partiskhed, forklarlighed og gennemsigtighed af automatiserede beslutninger truffet af AI; (2) etisk og gavnlig brug af kunstig intelligens; og (3) kontrol og tilsyn med AI og de leverandører, der leverer AI."

Ord til de kloge for mine juridiske venner og kolleger.

Sagens kerne er, at stort set alle kan komme i klemme, når de bruger generativ AI. Ikke-advokater kan gøre det på grund af deres formodede mangel på juridisk indsigt. Det kan advokater også gøre, måske forelskede i AI eller ikke tage en dyb indånding og reflektere over, hvilke juridiske konsekvenser der kan opstå, når de bruger generativ AI.

Vi er alle potentielt i samme båd.

Du bør også indse, at ChatGPT ikke er den eneste generative AI-app på blokken. Der er andre generative AI-apps, som du kan bruge. De er sandsynligvis også skåret fra den samme klud, nemlig at de input, du indtaster som prompter, og de output, du modtager som genererede output-essays, betragtes som en del af kollektivet og kan bruges af AI-producenten.

I dagens spalte vil jeg udpakke arten af, hvordan data, du indtaster, og data, som du modtager fra generativ AI, potentielt kan kompromitteres med hensyn til privatliv og fortrolighed. AI-producenterne stiller deres licenskrav til rådighed, og du ville gøre klogt i at læse op på disse vitale bestemmelser, før du begynder aktivt at bruge en AI-app med nogen form for reelle data. Jeg vil lede dig gennem et eksempel på en sådan licensering ved at gøre det for ChatGPT AI-appen.

Ind i alt dette kommer en række overvejelser om AI-etik og AI-lov.

Vær opmærksom på, at der er løbende bestræbelser på at gennemsyre etiske AI-principper i udviklingen og anvendelsen af ​​AI-apps. Et voksende kontingent af bekymrede og tidligere AI-etikere forsøger at sikre, at bestræbelserne på at udtænke og vedtage AI tager hensyn til et syn på at gøre AI til gode og afværge AI For Bad. Ligeledes er der foreslået nye AI-love, der bliver fløjtet rundt som potentielle løsninger for at forhindre AI-bestræbelser fra at gå amok med menneskerettigheder og lignende. For min løbende og omfattende dækning af AI-etik og AI-lovgivning, se linket her , linket her, For blot at nævne nogle få.

Der er betydelige etiske AI-nuancer og bestemmelser forbundet med, hvordan AI-skabere kan eller bør håndtere de data eller oplysninger, der virker private eller fortrolige for deres brugere. Du ved sandsynligvis også, at en masse eksisterende love rammer kernen af, hvordan data formodes at blive håndteret af teknologienheder. Chancerne er også, at de nyligt foreslåede AI-love også vil krydse ind i det samme territorium. Se for eksempel min dækning af AI Bill of Rights og andre juridiske skænderier, der foregår om AI, kl linket her.

Her er nøglen fra denne diskussion alt fortalt:

  • Vær meget, meget, meget forsigtig med, hvilke data eller oplysninger du vælger at indsætte i dine prompter, når du bruger generativ AI, og vær på samme måde ekstremt forsigtig og foregribe, hvilke slags outputte essays du kan få, da outputtet også kan absorberes.

Indebærer dette, at du ikke bør bruge generativ AI?

Nej, det er slet ikke det, jeg siger.

Brug generativ AI til dit hjertes lyst. Essensen er, at du skal være opmærksom på, hvordan du bruger det. Find ud af, hvilken type licensbestemmelser, der er forbundet med brugen. Beslut dig for, om du kan leve med disse bestemmelser. Hvis der er muligheder for at informere AI-producenten om, at du vil påberåbe dig visse former for ekstra beskyttelse eller tilladelser, skal du sørge for at gøre det.

Jeg vil også nævne en anden facet, som jeg er klar over, vil få nogle mennesker til at koge gale. Her går. På trods af hvad licensbestemmelserne er, skal du også antage, at der er en mulighed for, at disse krav måske ikke bliver fuldt ud overholdt. Ting kan gå skævt. Ting kan glide mellem sprækkerne. I sidste ende, sikkert, kan du have en retssag mod en AI-producent for ikke at overholde deres bestemmelser, men det er noget efter, at hesten allerede er ude af stalden.

En potentielt meget sikker måde at fortsætte på ville være at opsætte din egen instans på dine egne systemer, uanset om det er i skyen eller internt (og forudsat at du overholder de korrekte cybersikkerhedsforanstaltninger, hvilket nogle ganske vist ikke gør, og de er værre i deres egen sky end ved at bruge softwareleverandørens sky). Lidt af et nagende problem er dog, at få af de generative AI-apps i stor skala tillader dette lige nu. De arbejder stort set alle på vores-sky-kun-basis. Få har stillet muligheden til rådighed for at få skåret en hel instans ud til dig. Jeg har forudsagt, at vi gradvist vil se denne mulighed opstå, selvom det i starten vil være ret dyrt og noget kompliceret, se mine forudsigelser på linket her.

Hvordan kommer ellers særligt dygtige og særligt kloge mennesker sig selv ind i et mylder med udhuling af data- eller informationsfortrolighed?

Tiltrækningen ved disse generative AI-apps er ret magnetisk, når du først begynder at bruge en. Trin for trin finder du dig selv fascineret og vælger at sætte dine tæer længere og længere ned i det generative AI-vand. Den næste ting, du ved, er, at du let afleverer proprietært indhold, der formodes at holdes privat og fortroligt, til en generativ AI-app.

Modstå trangen og undlad venligst trinvist at falde i en ubehagelig fælde.

For virksomhedsledere og topledere går den samme advarsel til dig og alle folk i hele din virksomhed. Seniorledere bliver også fanget af entusiasme og forbløffelse ved at bruge generativ AI. De kan virkelig rode og potentielt indtaste hemmelige oplysninger på øverste niveau i en AI-app.

Oven i dette kan de have brede ligaer af deres medarbejdere, der også leger med generativ AI. Mange af disse ellers opmærksomme medarbejdere indtaster tankeløst og lykkeligt virksomhedens private og fortrolige oplysninger i disse AI-apps. Ifølge de seneste nyhedsrapporter opdagede Amazon tilsyneladende, at nogle ansatte indtastede forskellige proprietære oplysninger i ChatGPT. En juridisk orienteret advarsel skulle efter sigende være blevet sendt internt for at være forsigtig med at gøre brug af den uimodståelige AI-app.

Samlet set kommer der en smule ironi i de stigende fænomener med medarbejdere, der frivilligt indtaster fortrolige data i ChatGPT og anden generativ AI. Tillad mig at uddybe. Nutidens moderne virksomheder har typisk strenge cybersikkerhedspolitikker, som de omhyggeligt har udformet og implementeret. Der findes talrige teknologiske beskyttelser. Håbet er at forhindre utilsigtede udgivelser af afgørende ting. Et konstant trommeslag er at være forsigtig, når du besøger websteder, være forsigtig, når du bruger ikke-godkendte apps, og så videre.

Med følger generative AI-apps såsom ChatGPT. Nyheden om AI-appen går gennem taget og får bred opmærksomhed. Et vanvid opstår. Folk i disse virksomheder, der har alle disse cybersikkerhedsbeskyttelser, vælger at hoppe på en generativ AI-app. De leger med det i starten. De begynder derefter at indtaste virksomhedsdata. Wham, de har nu potentielt afsløret information, som ikke burde være blevet afsløret.

Det skinnende nye legetøj, der på magisk vis omgår millioner af dollars af udgifter til cybersikkerhedsbeskyttelse og løbende træning om, hvad man ikke skal gøre. Men hey, det er spændende at bruge generativ AI og være en del af "in" crowden. Det er tilsyneladende det, der tæller.

Jeg stoler på, at du forstår min drift omkring at være markant forsigtig.

Lad os derefter tage et nærmere kig på, hvordan generativ AI teknisk håndterer teksten i meddelelserne og de udsendte essays. Vi vil også undersøge nogle af licensbestemmelserne ved at bruge ChatGPT som eksempel. Vær venligst opmærksom på, at jeg ikke kommer til at dække hele spektret af disse licenselementer. Sørg for at involvere din juridiske rådgiver for de generative AI-apps, du måtte beslutte at bruge. Licenserne er også forskellig fra AI-producent til AI-producent, plus en given AI-producent kan vælge at ændre deres licenser, så sørg for at være opmærksom på, hvad den seneste version af licensen foreskriver.

Vi har noget spændende at pakke ud om dette spændende emne.

For det første bør vi sikre os, at vi alle er på samme side om, hvad Generativ AI består af, og også hvad ChatGPT handler om. Når vi først har dækket den grundlæggende facet, kan vi udføre en overbevisende vurdering af spejlmetaforen forbundet med denne type AI.

Hvis du allerede er rigeligt fortrolig med Generative AI og ChatGPT, kan du måske skimme det næste afsnit og fortsætte med det afsnit, der følger efter det. Jeg tror på, at alle andre vil finde lærerige de vitale detaljer om disse forhold ved at læse afsnittet nøje og komme i gang.

En hurtig primer om Generativ AI og ChatGPT

ChatGPT er et interaktivt, samtaleorienteret system til generel kunstig intelligens, i det væsentlige en tilsyneladende harmløs generel chatbot, men ikke desto mindre bliver den aktivt og ivrig brugt af folk på måder, der fanger mange helt på vagt, som jeg vil uddybe kort. Denne AI-app udnytter en teknik og teknologi i AI-området, som ofte omtales som Generativ AI. AI genererer output såsom tekst, hvilket er hvad ChatGPT gør. Andre generativt-baserede AI-apps producerer billeder som billeder eller kunst, mens andre genererer lydfiler eller videoer.

Jeg vil fokusere på de tekstbaserede generative AI-apps i denne diskussion, da det er, hvad ChatGPT gør.

Generative AI-apps er ekstremt nemme at bruge.

Alt du skal gøre er at indtaste en prompt, og AI-appen genererer et essay til dig, der forsøger at svare på din prompt. Den komponerede tekst vil virke, som om essayet er skrevet af den menneskelige hånd og sind. Hvis du skulle indtaste en prompt, der sagde "Fortæl mig om Abraham Lincoln", vil den generative AI give dig et essay om Lincoln. Dette er almindeligvis klassificeret som generativ AI, der udfører tekst-til-tekst eller nogle foretrækker at kalde det tekst-til-essay produktion. Som nævnt er der andre former for generativ AI, såsom tekst-til-kunst og tekst-til-video.

Din første tanke kunne være, at denne generative evne ikke virker som en så stor sag med hensyn til at producere essays. Du kan nemt foretage en onlinesøgning på internettet og let finde tonsvis af essays om præsident Lincoln. Kickeren i tilfælde af generativ AI er, at det genererede essay er relativt unikt og giver en original komposition snarere end en kopi. Hvis du skulle prøve at finde det AI-producerede essay online et sted, ville du sandsynligvis ikke opdage det.

Generativ AI er præ-trænet og gør brug af en kompleks matematisk og beregningsmæssig formulering, der er blevet sat op ved at undersøge mønstre i skrevne ord og historier på tværs af nettet. Som et resultat af at undersøge tusinder og millioner af skrevne passager, kan AI'en udspy nye essays og historier, der er en blanding af det, der blev fundet. Ved at tilføje forskellige probabilistiske funktioner, er den resulterende tekst temmelig unik i forhold til, hvad der er blevet brugt i træningssættet.

Derfor har der været tumult om, at elever kan snyde, når de skriver essays uden for klasseværelset. En lærer kan ikke blot tage det essay, som bedrageriske elever hævder, er deres eget forfatterskab og søge at finde ud af, om det er kopieret fra en anden onlinekilde. Samlet set vil der ikke være noget endeligt allerede eksisterende essay online, der passer til det AI-genererede essay. Alt i alt må læreren modvilligt acceptere, at eleven skrev essayet som et originalt stykke arbejde.

Der er yderligere bekymringer om generativ AI.

En afgørende ulempe er, at essays produceret af en generativ-baseret AI-app kan have forskellige løgne indlejret, herunder åbenlyst usande fakta, fakta, der er vildledende portrætteret, og tilsyneladende fakta, der er helt opdigtede. Disse opdigtede aspekter omtales ofte som en form for AI hallucinationer, et slagord, som jeg ikke favoriserer, men som desværre synes at vinde populær indpas alligevel (for min detaljerede forklaring om, hvorfor dette er elendig og uegnet terminologi, se min dækning på linket her).

Jeg vil gerne afklare et vigtigt aspekt, før vi går ind i de tykke ting om dette emne.

Der har været nogle sindssyge store påstande på sociale medier om Generativ AI hævder, at denne seneste version af AI faktisk er følende AI (nej, de tager fejl!). Dem i AI-etik og AI-lov er især bekymrede over denne spirende tendens med udstrakte påstande. Du kan høfligt sige, at nogle mennesker overvurderer, hvad nutidens AI faktisk kan. De antager, at AI har egenskaber, som vi endnu ikke har været i stand til at opnå. Det er uheldigt. Endnu værre, de kan tillade sig selv og andre at komme i alvorlige situationer på grund af en antagelse om, at AI'en vil være sansende eller menneskelignende i at kunne handle.

Antropomorf ikke AI.

Hvis du gør det, bliver du fanget i en klæbrig og hård afhængighedsfælde, hvor du forventer, at AI'en gør ting, den ikke er i stand til at udføre. Når det er sagt, er det seneste inden for generativ AI relativt imponerende for, hvad det kan. Vær dog opmærksom på, at der er betydelige begrænsninger, som du hele tiden bør huske på, når du bruger en generativ AI-app.

Hvis du er interesseret i den hurtigt voksende tumult om ChatGPT og Generative AI alt sammen, har jeg lavet en fokuseret serie i min klumme, som du måske finder informativ. Her er et blik, hvis et af disse emner fanger din lyst:

  • 1) Forudsigelser af Generative AI-fremskridt på vej. Hvis du vil vide, hvad der sandsynligvis vil udfolde sig om AI i løbet af 2023 og derefter, herunder kommende fremskridt inden for generativ AI og ChatGPT, vil du gerne læse min omfattende liste over 2023-forudsigelser på linket her.
  • 2) Generativ AI og mental sundhed rådgivning. Jeg valgte at gennemgå, hvordan generativ AI og ChatGPT bliver brugt til rådgivning om mental sundhed, en besværlig tendens, ifølge min fokuserede analyse på linket her.
  • 3) Grundlæggende om generativ AI og ChatGPT. Dette stykke udforsker nøgleelementerne i, hvordan generativ AI fungerer, og dykker især ned i ChatGPT-appen, herunder en analyse af buzz og fanfare, kl. linket her.
  • 4) Spænding mellem lærere og studerende over generativ AI og ChatGPT. Her er de måder, hvorpå eleverne vil bruge generativ kunstig intelligens og ChatGPT. Derudover er der flere måder for lærere at kæmpe med denne flodbølge. Se linket her.
  • 5) Kontekst og generativ brug af kunstig intelligens. Jeg lavede også en årstidsbestemt tunge-i-kind-undersøgelse om en julemandsrelateret kontekst, der involverede ChatGPT og generativ AI på linket her.
  • 6) Svindlere, der bruger generativ AI. På en ildevarslende bemærkning har nogle svindlere fundet ud af, hvordan man bruger generativ AI og ChatGPT til at begå fejl, herunder generering af fup-e-mails og endda producere programmeringskode til malware, se min analyse på linket her.
  • 7) Rookie-fejl ved brug af generativ AI. Mange mennesker både overskrider og overraskende underskrider, hvad generativ AI og ChatGPT kan gøre, så jeg kiggede især på den underskydning, som AI-rookies har en tendens til at lave, se diskussionen på linket her.
  • 8) Håndtering af generative AI-prompter og AI-hallucinationer. Jeg beskriver en førende tilgang til at bruge AI-tilføjelser til at håndtere de forskellige problemer, der er forbundet med at forsøge at indtaste passende prompter i generativ AI, plus der er yderligere AI-tilføjelser til at detektere såkaldte AI-hallucinerede output og falskheder, som dækket kl linket her.
  • 9) Afviser Bonehead-påstande om at detektere generative AI-producerede essays. Der er et misforstået guldfeber af AI-apps, der proklamerer at være i stand til at fastslå, om et givet essay var menneskeproduceret versus AI-genereret. Alt i alt er dette vildledende, og i nogle tilfælde er det en knoklet og uholdbar påstand, se min dækning på linket her.
  • 10) Rollespil via generativ AI kan give mentale ulemper. Nogle bruger generativ AI såsom ChatGPT til at spille rollespil, hvorved AI-appen reagerer på et menneske, som om det eksisterede i en fantasiverden eller andre opdigtede omgivelser. Dette kan have konsekvenser for mental sundhed, se linket her.
  • 11) Afsløring af rækken af ​​udsendte fejl og usandheder. Forskellige indsamlede lister er ved at blive sammensat for at forsøge at fremvise karakteren af ​​ChatGPT-producerede fejl og usandheder. Nogle mener, at dette er væsentligt, mens andre siger, at øvelsen er forgæves, se min analyse på linket her.
  • 12) Skoler, der forbyder generativ AI ChatGPT, mangler båden. Du ved måske, at forskellige skoler såsom New York City (NYC) Department of Education har erklæret et forbud mod brugen af ​​ChatGPT på deres netværk og tilhørende enheder. Selvom dette kan virke som en nyttig forholdsregel, flytter den ikke nålen og savner desværre helt båden, se min dækning på linket her.
  • 13) Generativ AI ChatGPT vil være overalt på grund af den kommende API. Der er et vigtigt twist på vej omkring brugen af ​​ChatGPT, nemlig at via brugen af ​​en API-portal ind i netop denne AI-app, vil andre softwareprogrammer være i stand til at påkalde og bruge ChatGPT. Dette vil dramatisk udvide brugen af ​​generativ AI og har bemærkelsesværdige konsekvenser, se min uddybning på linket her.
  • 14) Måder, hvorpå ChatGPT kan svimle eller smelte ned. Adskillige potentielle irriterende problemer lå forud for ChatGPT med hensyn til at underbyde den hidtil enorme ros, det har modtaget. Denne analyse undersøger nøje otte mulige problemer, der kan få ChatGPT til at miste dampen og endda ende i hundehuset, se linket her.

Du vil måske finde af interesse, at ChatGPT er baseret på en version af en forgænger AI-app kendt som GPT-3. ChatGPT anses for at være et lidt næste skridt, kaldet GPT-3.5. Det forventes, at GPT-4 sandsynligvis vil blive frigivet i foråret 2023. GPT-4 vil formentlig være et imponerende skridt fremad i forhold til at kunne producere tilsyneladende endnu mere flydende essays, gå dybere og være en ærefrygt -inspirerende vidunder med hensyn til de kompositioner, den kan producere.

Du kan forvente at se en ny runde af udtrykt undren, når foråret kommer, og det seneste inden for generativ kunstig intelligens frigives.

Jeg bringer dette op, fordi der er en anden vinkel at huske på, bestående af en potentiel akilleshæl til disse bedre og større generative AI-apps. Hvis en AI-leverandør stiller en generativ AI-app til rådighed, der skummende udspyder urenheder, kan det ødelægge disse AI-skaberes håb. En samfundsmæssig afsmitning kan få al generativ AI til at få et seriøst sort øje. Folk vil utvivlsomt blive ret kede af dårlige output, som allerede er sket mange gange og ført til larmende samfundsmæssige fordømmelsesreaktioner mod AI.

En sidste advarsel for nu.

Hvad end du ser eller læser i et generativt AI-svar synes skal formidles som rent faktuelle (datoer, steder, personer osv.), sørg for at forblive skeptisk og være villig til at dobbelttjekke, hvad du ser.

Ja, datoer kan opdigtes, steder kan finde på, og elementer, som vi normalt forventer at være hævet over bebrejdelser, er alle underlagt mistanke. Tro ikke på, hvad du læser, og hold et skeptisk øje, når du undersøger generative AI-essays eller output. Hvis en generativ AI-app fortæller dig, at Abraham Lincoln fløj rundt i landet i sit eget private jetfly, ville du utvivlsomt vide, at dette er malarky. Desværre er nogle mennesker måske ikke klar over, at jetfly ikke var til stede i hans tid, eller de ved måske, men undlader at bemærke, at essayet fremsætter denne frekke og skandaløst falske påstand.

En stærk dosis sund skepsis og en vedvarende tankegang af vantro vil være dit bedste aktiv, når du bruger generativ AI.

Vi er klar til at gå ind i næste fase af denne opklaring.

At vide, hvad Djævelen vil ske med den tekst

Nu hvor vi har etableret de grundlæggende principper, kan vi dykke ned i data og informationsovervejelser, når vi bruger generativ AI.

Lad os først kort overveje, hvad der sker, når du indtaster noget tekst i en prompt til ChatGPT. Vi ved ikke med sikkerhed, hvad der sker inde i ChatGPT, da programmet betragtes som proprietært. Nogle har påpeget, at dette underbyder en følelse af gennemsigtighed omkring AI-appen. En lidt smaskig bemærkning er, at for en virksomhed, der hedder OpenAI, er deres AI faktisk lukket for offentlig adgang og ikke tilgængelig som open source.

Lad os diskutere tokenisering.

Når du indtaster almindelig tekst i en prompt og trykker på retur, er der formodentlig en konvertering, der sker med det samme. Teksten konverteres til et format bestående af tokens. Tokens er underdele af ord. For eksempel vil ordet "hamburger" normalt være opdelt i tre tokens bestående af portionen "skinke", "bur" og "ger". En tommelfingerregel er, at tokens har en tendens til at repræsentere omkring fire tegn eller betragtes som cirka 75 % af et konventionelt engelsk ord.

Hvert token omformuleres derefter som et tal. Forskellige interne tabeller angiver, hvilket token der er tildelt hvilket bestemt nummer. Optagelsen på dette er, at den tekst, du indtastede, nu udelukkende er et sæt tal. Disse tal bruges til beregningsmæssigt at analysere prompten. Ydermere er det mønstermatchende netværk, som jeg nævnte tidligere, også baseret på tokeniserede værdier. I sidste ende, når du komponerer eller genererer det outputtede essay, bruges disse numeriske tokens først, og derefter, før de vises, konverteres tokens tilbage til sæt af bogstaver og ord.

Tænk over det et øjeblik.

Når jeg fortæller folk, at det er sådan mekanikken i forarbejdningen fungerer, bliver de ofte lamslåede. De antog, at en generativ AI-app som ChatGPT skal bruge fuldstændigt integrerende ord. Vi antager logisk, at ord fungerer som hjørnestenen til statistisk identifikation af sammenhænge i skrevne fortællinger og kompositioner. Det viser sig, at behandlingen faktisk har en tendens til at bruge tokens. Måske bidrager dette til forbløffelsen over, hvordan beregningsprocessen ser ud til at gøre et ganske overbevisende arbejde med at efterligne menneskeligt sprog.

Jeg ledte dig gennem den proces på grund af en almindelig misforståelse, der ser ud til at sprede sig. Nogle mennesker synes at tro, at fordi din prompttekst bliver konverteret til numeriske tokens, er du sikker på, at AI-appens interne dele på en eller anden måde ikke længere har din oprindeligt indtastede tekst. Således lyder påstanden, selvom du indtastede fortrolige oplysninger i din prompt, har du ingen bekymringer, da det hele tilsyneladende er blevet tokeniseret.

Den forestilling er en fejlslutning. Jeg har lige påpeget, at numeriske tokens let kan bringes tilbage til det tekstmæssige format af bogstaver og ord. Det samme kunne gøres med den konverterede prompt, der er blevet tokeniseret. Der er intet magisk beskyttende ved at være blevet tokeniseret. Når det er sagt, efter konverteringen til tokens, hvis der er en yderligere proces, der vælger at droppe tokens, flytte dem rundt og på anden måde forvrænge eller hakke ting op, i så fald er der faktisk mulighed for, at nogle dele af originalen prompt er ikke længere intakt (og forudsat at en original kopi ikke på anden måde opbevares eller opbevares internt et sted).

Jeg vil gerne næste gang tage et kig på de forskellige meddelelser og licensbestemmelser i ChatGPT.

Når du logger på ChatGPT, vises der en række advarsler og informationskommentarer.

Her er de:

  • "Kan lejlighedsvis generere forkerte oplysninger."
  • "Kan lejlighedsvis producere skadelige instruktioner eller partisk indhold."
  • "Uddannet til at afvise upassende anmodninger."
  • "Vores mål er at få ekstern feedback for at forbedre vores systemer og gøre dem mere sikre."
  • "Mens vi har sikkerhedsforanstaltninger på plads, kan systemet lejlighedsvis generere ukorrekte eller vildledende oplysninger og producere stødende eller partisk indhold. Det er ikke meningen at give råd.”
  • "Samtaler kan blive gennemgået af vores AI-trænere for at forbedre vores systemer."
  • "Del venligst ikke nogen følsomme oplysninger i dine samtaler."
  • “Dette system er optimeret til dialog. Fortæl os, om et bestemt svar var godt eller uhensigtsmæssigt."
  • "Begrænset viden om verden og begivenheder efter 2021."

To af de nævnte advarsler er særligt relevante for denne diskussion. Se på det sjette punktopstilling og det syvende punktopstilling.

Lad os pakke de to ud:

"Samtaler kan blive gennemgået af vores AI-trænere for at forbedre vores systemer."

Dette sjette punktopstilling forklarer, at tekstsamtaler, når de bruger ChatGPT, kan blive gennemgået af ChatGPT via dets "AI-trænere", som bliver gjort for at forbedre deres systemer. Dette er for at informere dig om, at for enhver og alle dine indtastede tekstprompter og de tilsvarende udsendte essays, som alle er en del af den "samtale", som du foretager med ChatGPT, kan den helt ses af deres folk. Begrundelsen er, at dette bliver gjort for at forbedre AI-appen, og vi får også at vide, at det er en type arbejdsopgave, der udføres af deres AI-trænere. Måske det, men resultatet er, at de har gjort dig opmærksom på, at de kan se på din tekst. Periode, punktum.

Hvis de skulle gøre noget andet med din tekst, ville du sandsynligvis søge juridisk rådgivning om, hvorvidt de har graviteret voldsomt ud over de foreslåede grænser for blot at gennemgå teksten med henblik på systemforbedring (forudsat at du nåede at opdage, at de havde gjort det, hvilket af i sig selv virker måske usandsynligt). I hvert fald kan du forestille dig det juridiske skænderi ved at prøve at sætte dem fast på dette, og deres forsøg på at ordne sig ud af at blive grebet for på en eller anden måde at overtræde grænserne for deres ansvarsfraskrivelse.

"Del venligst ikke nogen følsomme oplysninger i dine samtaler."

Det syvende punktopstilling angiver, at du ikke må dele følsomme oplysninger i dine samtaler. Det virker relativt ligetil. Jeg formoder, at du måske nøler med, hvad definitionen af ​​følsomme oplysninger består af. Desuden fortæller punktopstillingen dig ikke, hvorfor du ikke bør dele følsomme oplysninger. Hvis du en dag skal prøve og i dyb sved forklare, hvorfor du tåbeligt indtastede fortrolige data, kan du prøve den hævede øjenbrynspåstand om, at advarslen var uspecifik, og derfor forstod du ikke betydningen. Hold vejret i den.

Alt i alt tør jeg godt sige, at de fleste mennesker, som jeg har set bruge ChatGPT, har en tendens til ikke at læse punkterne, eller de skimmer de punktopstillede forholdsregler og bare nikker med hovedet, som om det er det sædvanlige vrøvl, som du ser alle tid. Kun få tager advarslerne tilsyneladende til sig. Er dette en skyld hos leverandøren, at han ikke har gjort forholdsreglerne mere udtalte? Eller skal vi antage, at brugerne skal være ansvarlige og omhyggeligt have læst, forstået og efterfølgende handle fornuftigt ud fra advarslerne?

Nogle hævder endda, at AI-appen burde advare dig gentagne gange. Hver gang du indtaster en prompt, bør softwaren poppe en advarsel op og spørge dig, om du vil ramme retur. Om og om igen. Selvom dette kan virke som en nyttig forholdsregel, ville det ganske vist irritere brugerne. En vanskelig afvejning er involveret.

Okay, så det er de åbenlyse advarsler, som alle brugere kan se.

Brugere, der måske er mere nysgerrige, kunne vælge at følge nogle af de detaljerede licensbestemmelser, der også er lagt ud online. Jeg tvivler på, at mange gør det. Min fornemmelse er, at de færreste ser seriøst på punkterne, når de logger ind, og endnu færre ser med stor margen på licensdetaljerne. Igen, vi er alle lidt følelsesløse over for sådanne ting i disse dage. Jeg undskylder ikke adfærden, jeg noterer kun hvorfor den opstår.

Jeg vil undersøge nogle få uddrag fra de opslåede licensvilkår.

For det første er her en definition af, hvad de betragter som "indhold", der er forbundet med brugen af ​​ChatGPT:

  • "Dit indhold. Du kan levere input til Tjenesterne ("Input") og modtage output genereret og returneret af Tjenesterne baseret på Input ("Output"). Input og Output er samlet "Indhold". Som mellem parterne og i det omfang, det er tilladt i henhold til gældende lovgivning, ejer du alt input, og med forbehold af din overholdelse af disse vilkår, tildeler OpenAI dig hermed alle sine rettigheder, ejendomsrettigheder og interesser i og til output. OpenAI kan bruge indhold efter behov for at levere og vedligeholde tjenesterne, overholde gældende lovgivning og håndhæve vores politikker. Du er ansvarlig for indhold, herunder for at sikre, at det ikke overtræder nogen gældende lov eller disse vilkår."

Hvis du omhyggeligt undersøger denne definition, vil du bemærke, at OpenAI erklærer, at det kan bruge indholdet, som de anser for nødvendigt for at vedligeholde dets tjenester, herunder at overholde gældende love og håndhæve dets politikker. Dette er en praktisk catchall for dem. I en kommende af mine spalter vil jeg diskutere et andet, men relateret emne, specifikt om de intellektuelle ejendomsrettigheder (IP), som du har med hensyn til de indtastede tekstprompter og udsendte essays (jeg påpeger dette her, da definitionen af Indholdet er relateret til dette emne).

I en yderligere del af termerne, mærket som afsnit c, nævner de denne facet: "En af de vigtigste fordele ved maskinlæringsmodeller er, at de kan forbedres over tid. For at hjælpe OpenAI med at levere og vedligeholde tjenesterne, accepterer og instruerer du, at vi må bruge indhold til at udvikle og forbedre tjenesterne." Dette er beslægtet med den tidligere diskuterede en-linje forsigtighed, der vises, når du logger på ChatGPT.

Et separat dokument, der er knyttet til dette, giver nogle yderligere aspekter om disse vægtige spørgsmål:

  • "Som en del af denne løbende forbedring, når du bruger OpenAI-modeller via vores API, kan vi bruge de data, du giver os, til at forbedre vores modeller. Dette hjælper ikke kun vores modeller med at blive mere præcise og bedre til at løse dit specifikke problem, det hjælper også med at forbedre deres generelle muligheder og sikkerhed. Vi ved, at databeskyttelse og sikkerhed er afgørende for vores kunder. Vi er meget omhyggelige med at bruge passende tekniske og procesmæssige kontroller til at sikre dine data. Vi fjerner enhver personlig identificerbar information fra data, som vi har til hensigt at bruge til at forbedre modellens ydeevne. Vi bruger også kun et lille udsnit af data pr. kunde til vores bestræbelser på at forbedre modellens ydeevne. For én opgave er det maksimale antal API-anmodninger, som vi prøver pr. kunde, begrænset til 200 hver 6. måned" (uddrag fra dokumentet med titlen "Sådan bruges dine data til at forbedre modelydelsen").

Bemærk, at bestemmelsen angiver, at bestemmelsen gælder for brug af API som et middel til at oprette forbindelse til og bruge alle OpenAI-modellerne. Det er noget uklart, om dette også gælder for slutbrugere, der direkte bruger ChatGPT.

I endnu et andet dokument, et der indeholder deres liste over forskellige ofte stillede spørgsmål, giver de en række spørgsmål og svar, hvoraf to virker særligt relevante for denne diskussion:

  • “(5) Hvem kan se mine samtaler? Som en del af vores forpligtelse til sikker og ansvarlig AI gennemgår vi samtaler for at forbedre vores systemer og for at sikre, at indholdet overholder vores politikker og sikkerhedskrav."
  • “(8) Kan du slette specifikke prompter? Nej, vi er ikke i stand til at slette specifikke prompter fra din historik. Del venligst ikke nogen følsomme oplysninger i dine samtaler."

Der er et yderligere dokument, der dækker deres privatlivspolitik. Det siger dette: "Vi indsamler oplysninger, som alene eller i kombination med andre oplysninger i vores besiddelse kan bruges til at identificere dig ("Personlige oplysninger")" og fortsætter derefter med at forklare, at de kan bruge logdata, brugsdata, kommunikationsoplysninger, enhedsoplysninger, cookies, analyser og andre potentielt indsamlede oplysninger om dig. Sørg for at læse det med småt.

Jeg tror, ​​at det stort set giver en rundvisning i nogle overvejelser, der ligger til grund for, hvordan dine data kan bruges. Som jeg nævnte indledningsvis, vil jeg ikke møjsommeligt træde igennem alle licensbestemmelserne.

Forhåbentlig får dette dig ind i en sindsstemning om disse spørgsmål og vil forblive på toppen af ​​dit sind.

Konklusion

Jeg har sagt det før, og jeg siger det igen, indtast ikke fortrolige eller private data i disse generative AI-apps.

Overvej et par praktiske tips eller muligheder på dette salvie-råd:

  • Tænk før du bruger Generativ AI
  • Fjern ting på forhånd
  • Mask eller falsk dit input
  • Opsæt din egen instans
  • Andet

Jeg vil derefter angive, hvad hver enkelt af dem består af. Opsætningen af ​​din egen instans blev tidligere dækket heri. Brugen af ​​"andet" på min liste skyldes muligheden for andre måder at håndtere at forhindre, at fortrolige data bliver inkluderet, hvilket jeg vil komme nærmere ind på i en fremtidig spaltepost.

Lad os undersøge disse:

  • Tænk før du bruger Generativ AI. En tilgang involverer helt at undgå at bruge generativ AI. Eller i det mindste tænk dig om to gange, før du gør det. Jeg formoder, at den sikreste vej involverer ikke at bruge disse AI-apps. Men dette virker også ret alvorligt og næsten overbord.
  • Fjern ting på forhånd. En anden tilgang består i at fjerne fortrolige eller private oplysninger fra det, du indtaster som en prompt. I den forstand, hvis du ikke går ind i det, er der ikke en chance for, at det bliver infunderet i Borgen. Ulempen er, at fjernelsen af ​​den fortrolige del måske på en eller anden måde reducerer eller underbyder det, du forsøger at få den generative AI til at gøre for dig.
  • Mask eller falsk dine input. Du kan ændre din foreslåede tekst ved at ændre oplysningerne, så det, der virkede fortroligt eller privat, nu skildres anderledes. For eksempel, i stedet for en kontrakt, der nævner Widget Company og John Smith, ændrer du teksten til at henvise til Specious Company og Jane Capone. Et problem her er, om du vil udføre et tilstrækkeligt udtømmende arbejde, så alle fortrolige og private aspekter er fuldstændigt ændrede eller forfalskede. Det ville være nemt at gå glip af nogle af uklarhederne og efterlade ting, der ikke burde være der.

Her er et interessant tilføjet twist, der måske kan få din tæve til at trænge yderligere ind i dette emne. Hvis du helt kan sikre, at ingen af ​​dine input-prompter indeholder fortrolige oplysninger, betyder det så, at du ikke behøver at bekymre dig om, at de udsendte essays også indeholder nogen af ​​dine fortrolige oplysninger?

Dette synes aksiomatisk rigtigt. Intet fortroligt input, intet fortroligt output.

Her er dit tankevækkende twist.

Generativ AI er ofte sat op til beregningsmæssigt at genoptræne sig selv fra de tekstprompter, der leveres. Ligeledes er generativ AI ofte udtænkt til beregningsmæssigt at genoptræne fra de udsendte essays. Al denne omskoling har til formål at forbedre mulighederne for generativ AI.

Jeg beskrev i en af ​​mine andre spalter det følgende eksperiment, som jeg foretog. En advokat forsøgte at finde et nyt middel til at tackle et juridisk problem. Efter et udtømmende kig på den juridiske litteratur, så det ud til, at alle vinkler, der allerede dukkede op, var fundet. Ved at bruge generativ AI fik vi AI-appen til at producere en nyhed i en juridisk tilgang, som tilsyneladende ikke tidligere var blevet identificeret. Man mente, at ingen andre endnu var landet på denne juridiske holdning. En lovlig guldklump sådan set. Dette kunne være en strategisk værdifuld konkurrenceretlig bonanza, som på det rigtige tidspunkt kan udnyttes og udnyttes.

Udgør det udsendte essay en form for fortrolig information, sådan at den blev genereret af AI'en for denne særlige person og indeholder noget særligt og tilsyneladende unikt?

Aha, dette fører os til det andet allierede og sammenflettede emne om ejerskab og IP-rettigheder forbundet med generativ AI. Følg med for at se, hvordan det bliver.

En sidste bemærkning for nu.

Sofokles gav denne visdom: "Gør intet hemmeligt; for tiden ser og hører alle ting og afslører alt." Jeg formoder, at du kunne modernisere ordlyden og hævde, at generativ AI og dem, der udvikler og vedligeholder AI, også er tilbøjelige til at se det hele.

Det er et beskedent symbolsk råd, der er værd at huske.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etik-og-ai-lov/