Federal Trade Commission sigter på at få hammeren ned på de store ubegrundede påstande om generativ AI ChatGPT og anden AI, advarer AI-etik og AI-lovgivning

Bring hammeren ned.

Det er, hvad Federal Trade Commission (FTC) siger, at den vil gøre med hensyn til den igangværende og forværrede brug af overdimensionerede ubegrundede påstande om kunstig intelligens (AI).

I et officielt blogindlæg den 27. februar 2023, med titlen "Keep Your AI Claims In Check" af advokat Michael Atleson fra FTC Division of Advertising Practices, bemærkede nogle helt hamrende ord, at AI ikke kun er en form for beregningsmæssig højteknologi, men det er blevet en marketing jackpot, der til tider er gået ud over rimelighedens område:

  • "Og hvad er egentlig 'kunstig intelligens'? Det er et tvetydigt begreb med mange mulige definitioner. Det refererer ofte til en række teknologiske værktøjer og teknikker, der bruger beregning til at udføre opgaver såsom forudsigelser, beslutninger eller anbefalinger. Men én ting er sikkert: Det er et markedsføringsbegreb. Lige nu er det varmt. Og hos FTC er en ting, vi ved om hotte markedsføringsvilkår, at nogle annoncører ikke vil være i stand til at stoppe sig selv fra at overbruge og misbruge dem” (FTC-websted).

AI tilbyder store muligheder for marketingfolk, der virkelig ønsker at gå amok og hype for pokker af det underliggende AI-augmenterede eller AI-drevne produkt eller tjeneste, der sælges til forbrugerne.

Ser du, fristelsen til at skubbe på grænsen af ​​overdrevenhed må være enorm, især når en marketingmedarbejder ser andre firmaer gøre det samme. Konkurrencedygtige juicer kræver, at du laver en klassisk over-the-top, når dine konkurrenter råber på, at deres AI går på vandet. Måske er din AI tilsyneladende bedre, fordi den flyver i luften, undslipper tyngdekraftens grænser og formår at tygge tyggegummi på samme tid.

Ind i den vanvittige brug af AI-proklamerede færdigheder, der grænser til eller direkte grænser til løgn og bedrag, træder lovens lange arm, nemlig FTC og andre føderale, statslige og lokale agenturer (se min løbende dækning af sådanne bestræbelser, inklusive internationale reguleringsbestræbelser også, kl linket her).

Du er potentielt klar over, at FTC som føderalt agentur omfatter Bureau of Consumer Protection, der har mandat til at beskytte forbrugere mod betragtede vildledende handlinger eller praksis i kommercielle omgivelser. Dette opstår ofte, når virksomheder lyver eller vildleder forbrugere om produkter eller tjenester. FTC kan bruge sin mægtige statslige dygtighed til at slå ned på sådanne krænkende firmaer.

FTC-blogindlægget, som jeg citerede, kom også med denne noget nervøse udtalelse:

  • "Markedsførere bør vide, at - til FTC-håndhævelsesformål - falske eller udokumenterede påstande om et produkts effektivitet er vores brød og smør."

På en måde sigter de, der insisterer på at overdrive deres påstande om kunstig intelligens, at være toast. FTC kan søge at få AI-fordringshaveren til at afstå fra og potentielt stå over for hårde straffe for de begåede overtrædelser.

Her er nogle af de potentielle handlinger, som FTC kan tage:

  • "Når Federal Trade Commission finder en sag om svindel begået mod forbrugere, anlægger agenturet sager til den føderale distriktsdomstol for øjeblikkelig og permanent ordre om at stoppe svindel; forhindre svindlere i at begå svindel i fremtiden; indefryse deres aktiver; og få erstatning til ofrene. Når forbrugere ser eller hører en annonce, uanset om det er på internettet, radio eller fjernsyn eller andre steder, siger føderal lov, at en annonce skal være sandfærdig, ikke vildledende og, når det er relevant, understøttet af videnskabelige beviser. FTC håndhæver disse love om sandhed i reklamer, og det anvender de samme standarder, uanset hvor en annonce vises - i aviser og magasiner, online, med posten eller på reklametavler eller busser" (FTC's websted pr. afsnittet om Sandheden i reklamer)

Der har været en række relativt nylige højprofilerede eksempler på, at FTC går efter falske reklamehændelser.

For eksempel kom L'Oreal i problemer for at reklamere for, at deres Paris Youth Code hudplejeprodukter var "klinisk bevist" for at få folk til at se "synligt yngre ud" og "forstærke gener", essensen af ​​sådanne påstande viste sig ikke at være understøttet af substantielle videnskabelige beviser, og FTC tog handling i overensstemmelse hermed. Et andet fremtrædende eksempel bestod af Volkswagens reklame for, at deres dieselbiler brugte "ren diesel" og ergo angiveligt udledte ganske små mængder forurening. I dette tilfælde blev de emissionstest, som Volkswagen udførte, svigagtigt udført for at maskere deres sande emissioner. Håndhævelsesforanstaltninger fra FTC førte til en kompensationsordning for berørte forbrugere.

Forestillingen om, at AI også burde få en lignende undersøgelse i henhold til udokumenterede eller måske helt svigagtige påstande, er bestemt en rettidig og værdig sag.

Der er en udtalt mani omkring kunstig intelligens lige nu, som er drevet af fremkomsten af Generativ AI. Denne særlige type AI overvejes generative fordi det er i stand til at generere output, der næsten ser ud til at være udtænkt af en menneskelig hånd, selvom AI'en regnemæssigt gør det. En AI-app kendt som ChatGPT af firmaet OpenAI har fået enorm opmærksomhed og drevet AI-mani ind i stratosfæren. Jeg vil om et øjeblik forklare, hvad generativ AI handler om og beskrive arten af ​​AI-appen ChatGPT.

Selvfølgelig har AI generelt eksisteret i et stykke tid. Der har været en række rutschebane-op- og nedture forbundet med løfterne om, hvad AI kan opnå. Man kan sige, at vi er på et nyt højdepunkt. Nogle mener, at dette kun er udgangspunktet, og vi går længere lige op. Andre er brændende uenige og hævder, at den generative AI-gambit vil ramme en mur, nemlig at den snart vil nå en blindgyde, og rutsjebaneturen vil falde.

Tiden vil vise det.

FTC har tidligere opfordret til, at krav, der dækker AI, skal være passende afbalancerede og rimelige. I et officielt FTC blogindlæg af 19. april 2021 med titlen "Sigter efter sandhed, retfærdighed og retfærdighed i din virksomheds brug af kunstig intelligens" bemærkede Elisa Jillson de adskillige måder, hvorpå håndhævelseshandlinger lovligt opstår, og fremhævede især bekymringer over kunstig intelligens, der gennemsyrer unødige skævheder :

  • "FTC har årtiers erfaring med at håndhæve tre love, der er vigtige for udviklere og brugere af kunstig intelligens."
  • "§ 5 i FTC-loven. FTC-loven forbyder urimelig eller vildledende praksis. Det vil omfatte salg eller brug af - for eksempel - racebaserede algoritmer."
  • "Fair Credit Reporting Act. FCRA kommer i spil under visse omstændigheder, hvor en algoritme bruges til at nægte folk beskæftigelse, bolig, kredit, forsikring eller andre fordele."
  • "Lov om ligestillingsmuligheder. ECOA gør det ulovligt for en virksomhed at bruge en forudindtaget algoritme, der resulterer i kreditdiskrimination på grundlag af race, hudfarve, religion, national oprindelse, køn, civilstand, alder, eller fordi en person modtager offentlig bistand."

En iøjnefaldende bemærkning i det førnævnte blogindlæg nævner denne tydeligt talte påstand:

  • "I henhold til FTC-loven skal dine udtalelser til både erhvervskunder og forbrugere være sandfærdige, ikke-bedrageriske og understøttet af beviser" (ibid).

Det juridiske sprog i afsnit 5 i FTC-loven gentager denne holdning:

  • "Urimelige konkurrencemetoder i eller påvirker handel, og urimelige eller vildledende handlinger eller praksis i eller påvirker handel, erklæres hermed ulovlige" (kilde: Section 5 of the FTC Act).

Det virker som en lettelse at vide, at FTC og andre statslige agenturer holder øjnene åbne og klar med en hammer dinglende over hovedet på enhver organisation, der kan vove at udsende unfair eller vildledende beskeder om AI.

Indebærer alt dette, at du kan være rolig og antage, at disse AI-skabere og AI-promotører vil være forsigtige i deres markedsføringspåstande om AI, og de vil være opmærksomme på ikke at komme med ublu eller uhyrlige formaninger?

Pokker nej.

Du kan forvente, at marketingfolk vil være marketingfolk. De vil sigte mod at fremsætte store og ubegrundede påstande om AI indtil tidens ende. Nogle vil gøre det og være blindt uvidende om, at sådanne påstande kan få dem og deres virksomhed i problemer. Andre ved, at påstandene kan skabe problemer, men de regner med, at chancerne for at blive fanget er små. Der er også nogle, der satser på, at de kan springe over kanten af ​​sagen og lovligt hævder, at de ikke gled over i det skumle vand af at være usandfærdige eller vildledende.

Lad advokaterne finde ud af det, siger nogle AI-marketingfolk. Imens er der fuld damp. Hvis en dag FTC eller et andet statsligt organ banker på døren, så må det være. Pengene, der skal tjenes, er nu. Måske putte en klat af den tidligere dej i en slags trustfond til håndtering af nedstrøms juridiske spørgsmål. For nu er pengetoget i gang, og du ville være sindssygt tåbelig at gå glip af den nemme sovs, du kan få.

Der er en række rationaliseringer omkring annoncering af AI til det ultimative greb:

  • Alle fremsætter besynderlige AI-påstande, så det kan vi lige så godt også gøre
  • Ingen kan med sikkerhed sige, hvor skillelinjen går angående sandheder om AI
  • Vi kan ordne vores påstande om vores AI for at holde os en tomme eller to inden for sikkerhedszonen
  • Regeringen vil ikke fange det, vi laver, vi er en lille fisk i et stort hav
  • Retfærdighedens hjul er så langsomme, at de ikke kan holde trit med hastigheden af ​​AI-fremskridt
  • Hvis forbrugerne falder for vores AI-påstande, er det på dem, ikke på os
  • AI-udviklerne i vores firma sagde, at vi kunne sige, hvad jeg sagde i vores markedsføringspåstande
  • Lad ikke det juridiske team stikke næsen i disse AI-ting, som vi udbasunerer, de vil simpelthen sætte kibosh på vores fantastiske AI-marketingkampagner og være en ordsproget kæp i mudderet
  • Andet

Er disse rationaliseringer en opskrift på succes eller en opskrift på katastrofe?

For AI-skabere, der ikke er opmærksomme på disse alvorlige og nøgterne juridiske betænkeligheder, vil jeg foreslå, at de er på vej mod en katastrofe.

I høring med mange AI-virksomheder på daglig og ugentlig basis, advarer jeg dem om, at de bør søge omhyggelig juridisk rådgivning, da de penge, de tjener i dag, potentielt vil blive givet tilbage, og mere, når de står over for civile retssager fra forbrugere. kombineret med statslig håndhævelse. Afhængigt af hvor langt tingene går, kan de kriminelle følgevirkninger også sidde i kulissen.

I dagens klumme vil jeg adressere den stigende bekymring for, at marketinghypen, der ligger til grund for AI, i stigende grad krydser grænsen til forværring af ubehagelig og vildledende praksis. Jeg vil se på grundlaget for disse betænkeligheder. Desuden vil dette lejlighedsvis omfatte at henvise til dem, der bruger og udnytter AI-appen ChatGPT, da det er gorillaen på 600 pund af generativ AI, men husk på, at der er masser af andre generative AI-apps, og de er generelt baseret på de samme overordnede principper.

I mellemtiden undrer du dig måske over, hvad generativ AI i virkeligheden er.

Lad os først dække det grundlæggende i generativ AI, og derefter kan vi se nærmere på det presserende emne.

Ind i alt dette kommer en række overvejelser om AI-etik og AI-lov.

Vær opmærksom på, at der er løbende bestræbelser på at gennemsyre etiske AI-principper i udviklingen og anvendelsen af ​​AI-apps. Et voksende kontingent af bekymrede og tidligere AI-etikere forsøger at sikre, at bestræbelserne på at udtænke og vedtage AI tager hensyn til et syn på at gøre AI til gode og afværge AI For Bad. Ligeledes er der foreslået nye AI-love, der bliver fløjtet rundt som potentielle løsninger for at forhindre AI-bestræbelser fra at gå amok med menneskerettigheder og lignende. For min løbende og omfattende dækning af AI-etik og AI-lovgivning, se linket her , linket her, For blot at nævne nogle få.

Udviklingen og udbredelsen af ​​etiske AI-forskrifter forfølges for forhåbentlig at forhindre samfundet i at falde i et utal af AI-inducerende fælder. For min dækning af FN's AI-etiske principper som udtænkt og støttet af næsten 200 lande via UNESCOs indsats, se linket her. På samme måde undersøges nye AI-love for at forsøge at holde AI på en jævn køl. Et af de seneste optagelser består af et sæt foreslåede AI Bill of Rights som det amerikanske Hvide Hus for nylig udgav for at identificere menneskerettigheder i en tidsalder med kunstig intelligens, se linket her. Det kræver en landsby at holde AI- og AI-udviklere på en retfærdig vej og afskrække den målrettede eller utilsigtede underhåndsindsats, der kan underbyde samfundet.

Jeg vil flette AI-etik og AI-lovrelaterede overvejelser ind i denne diskussion.

Grundlæggende om generativ AI

Den mest kendte forekomst af generativ AI er repræsenteret af en AI-app ved navn ChatGPT. ChatGPT sprang ind i den offentlige bevidsthed tilbage i november, da den blev udgivet af AI-forskningsfirmaet OpenAI. Lige siden ChatGPT har høstet store overskrifter og forbavsende overskredet sine tildelte femten minutters berømmelse.

Jeg gætter på, at du sikkert har hørt om ChatGPT eller måske endda kender nogen, der har brugt det.

ChatGPT betragtes som en generativ AI-applikation, fordi den tager noget tekst fra en bruger som input og derefter genererer eller producerer et output, der består af et essay. AI'en er en tekst-til-tekst-generator, selvom jeg beskriver AI'en som værende en tekst-til-essay-generator, da det lettere tydeliggør, hvad den almindeligvis bruges til. Du kan bruge generativ kunstig intelligens til at komponere lange kompositioner, eller du kan få den til at give ret korte pittige kommentarer. Det hele er efter dit bud.

Alt du skal gøre er at indtaste en prompt, og AI-appen genererer et essay til dig, der forsøger at svare på din prompt. Den komponerede tekst vil virke, som om essayet er skrevet af den menneskelige hånd og sind. Hvis du skulle indtaste en prompt, der sagde "Fortæl mig om Abraham Lincoln", vil den generative AI give dig et essay om Lincoln. Der er andre former for generativ AI, såsom tekst-til-kunst og tekst-til-video. Jeg vil her fokusere på tekst-til-tekst-variationen.

Din første tanke kunne være, at denne generative evne ikke virker som en så stor sag med hensyn til at producere essays. Du kan nemt foretage en onlinesøgning på internettet og let finde tonsvis af essays om præsident Lincoln. Kickeren i tilfælde af generativ AI er, at det genererede essay er relativt unikt og giver en original komposition snarere end en kopi. Hvis du skulle prøve at finde det AI-producerede essay online et sted, ville du sandsynligvis ikke opdage det.

Generativ AI er præ-trænet og gør brug af en kompleks matematisk og beregningsmæssig formulering, der er blevet sat op ved at undersøge mønstre i skrevne ord og historier på tværs af nettet. Som et resultat af at undersøge tusinder og millioner af skrevne passager, kan AI'en udspy nye essays og historier, der er en blanding af det, der blev fundet. Ved at tilføje forskellige probabilistiske funktioner, er den resulterende tekst temmelig unik i forhold til, hvad der er blevet brugt i træningssættet.

Der er mange bekymringer om generativ AI.

En afgørende ulempe er, at essays produceret af en generativ-baseret AI-app kan have forskellige løgne indlejret, herunder åbenlyst usande fakta, fakta, der er vildledende portrætteret, og tilsyneladende fakta, der er helt opdigtede. Disse opdigtede aspekter omtales ofte som en form for AI hallucinationer, et slagord, som jeg ikke favoriserer, men som desværre synes at vinde populær indpas alligevel (for min detaljerede forklaring om, hvorfor dette er elendig og uegnet terminologi, se min dækning på linket her).

En anden bekymring er, at mennesker let kan tage æren for et generativt AI-produceret essay, på trods af at de ikke selv har skrevet essayet. Du har måske hørt, at lærere og skoler er ret bekymrede over fremkomsten af ​​generative AI-apps. Studerende kan potentielt bruge generativ AI til at skrive deres tildelte essays. Hvis en elev hævder, at et essay er skrevet af deres egen hånd, er der ringe chance for, at læreren kan skelne, om det i stedet er smedet af generativ AI. For min analyse af denne elev og lærer forvirrende facet, se min dækning på linket her , linket her.

Der har været nogle sindssyge store påstande på sociale medier om Generativ AI hævder, at denne seneste version af AI faktisk er følende AI (nej, de tager fejl!). Dem i AI-etik og AI-lov er især bekymrede over denne spirende tendens med udstrakte påstande. Du kan høfligt sige, at nogle mennesker overvurderer, hvad nutidens AI kan. De antager, at AI har egenskaber, som vi endnu ikke har været i stand til at opnå. Det er uheldigt. Endnu værre, de kan tillade sig selv og andre at komme i alvorlige situationer på grund af en antagelse om, at AI'en vil være sansende eller menneskelignende i at være i stand til at handle.

Antropomorf ikke AI.

Hvis du gør det, bliver du fanget i en klæbrig og hård afhængighedsfælde, hvor du forventer, at AI'en gør ting, den ikke er i stand til at udføre. Når det er sagt, er det seneste inden for generativ AI relativt imponerende for, hvad det kan. Vær dog opmærksom på, at der er betydelige begrænsninger, som du hele tiden bør huske på, når du bruger en generativ AI-app.

En sidste advarsel for nu.

Hvad end du ser eller læser i et generativt AI-svar synes skal formidles som rent faktuelle (datoer, steder, personer osv.), sørg for at forblive skeptisk og være villig til at dobbelttjekke, hvad du ser.

Ja, datoer kan opdigtes, steder kan finde på, og elementer, som vi normalt forventer at være hævet over bebrejdelser, er alle underlagt mistanke. Tro ikke på, hvad du læser, og hold et skeptisk øje, når du undersøger generative AI-essays eller output. Hvis en generativ AI-app fortæller dig, at Abraham Lincoln fløj rundt i landet i sit private jetfly, ville du utvivlsomt vide, at dette er malarky. Desværre er nogle mennesker måske ikke klar over, at jetfly ikke var til stede i hans tid, eller de ved måske, men undlader at bemærke, at essayet fremsætter denne frekke og skandaløst falske påstand.

En stærk dosis sund skepsis og en vedvarende tankegang af vantro vil være dit bedste aktiv, når du bruger generativ AI. Vær også på vagt over for potentielle indtrængen i privatlivets fred og tab af datafortrolighed, se min diskussion på linket her.

Vi er klar til at gå ind i næste fase af denne opklaring.

AI som den største historie nogensinde fortalt

Lad os nu tage et dybt dyk ned i de forvrængninger, der bliver fortalt om AI.

Jeg vil fokusere på generativ AI. Når det er sagt, er stort set enhver form for kunstig intelligens underlagt de samme bekymringer om uretfærdig eller vildledende reklame. Husk denne bredere opfattelse. Jeg siger dette til dem, der er AI-skabere af enhver art, og sikrer, at de alle er informeret om disse forhold og ikke er begrænset til kun dem, der laver generative AI-apps.

Det samme gælder for alle forbrugere. Uanset hvilken type AI du måske overvejer at købe eller bruge, skal du være på vagt over for falske eller vildledende påstande om AI.

Her er de vigtigste emner, som jeg gerne vil dække med dig i dag:

  • 1) Hvem er hvad om potentielle AI-falskheder
  • 2) Forsøg på at bruge flugtklausuler for at undgå AI-ansvar
  • 3) FTC giver praktiske advarselsord om AI-annoncering
  • 4) FTC serverer også advarselsord om AI-bias
  • 5) De handlinger, du skal tage om dine AI-annoncespil

Jeg vil dække hvert af disse vigtige emner og komme med indsigtsfulde overvejelser, som vi alle bør tænke over. Hvert af disse emner er en integreret del af et større puslespil. Du kan ikke kun se på ét stykke. Du kan heller ikke se på noget stykke isoleret fra de andre stykker.

Dette er en indviklet mosaik, og hele puslespillet skal tages ordentligt harmonisk i betragtning.

Hvem er hvad om potentielle AI-falskheder

Der er behov for en vigtig afklaring af de forskellige aktører eller interessenter, der er involveret i disse spørgsmål.

Der er AI-skaberne, der udtænker kernen i en generativ AI-app, og så er der andre, der bygger oven på den generative AI for at lave en app, der er afhængig af den underliggende generative AI. Jeg har diskuteret, hvordan brugen af ​​API (applikationsprogrammeringsgrænseflader) giver dig mulighed for at skrive en app, der udnytter generativ AI, se min dækning på linket her. Et godt eksempel inkluderer, at Microsoft har tilføjet generative AI-kapaciteter fra OpenAI til deres Bing-søgemaskine, som jeg har dækket i dybden på linket her.

De potentielle syndere ved at fremsætte vildledende eller falske påstande om kunstig intelligens kan omfatte:

  • AI-forskere
  • AI udviklere
  • AI marketingfolk
  • AI-producenter, der udvikler kerne-AI, såsom generativ AI
  • Virksomheder, der bruger generativ kunstig intelligens i deres softwareudbud
  • Virksomheder, der er afhængige af brugen af ​​generativ kunstig intelligens i deres produkter og tjenester
  • Virksomheder, der er afhængige af firmaer, der bruger generativ kunstig intelligens i deres produkter eller tjenester
  • Osv

Du kan se dette som en forsyningskæde. Enhver, der er involveret i AI, mens den fortsætter langs stien eller spidsen for den AI, der bliver udtænkt og felt, kan let komme med vildledende eller svigagtige påstande om AI.

Dem, der lavede den generative AI, er måske lige skydespil, og det viser sig, at de andre, der pakker den generative AI ind i deres produkter eller tjenester, er dem, der bliver djævelske og fremsætter ubegrundede påstande. Det er én mulighed.

En anden mulighed er, at skaberne af AI er dem, der fremsætter de falske påstande. De andre, der derefter inkluderer den generative AI i deres varer, vil sandsynligvis gentage disse påstande. På et tidspunkt kan der opstå et juridisk sump. Der kan opstå et juridisk brud, der først sigter mod firmaet, der gentog påstandene, hvoraf de tilsyneladende tilsyneladende ville pege juridiske fingre ad AI-producenten, der startede kravlavinen. Dominoerne begynder at falde.

Pointen er, at virksomheder, der tror, ​​at de kan stole på andres falske påstande, er forpligtet til at lide en uhøflig opvågning af, at de ikke nødvendigvis kommer til at gå fri af en sådan tillid. Også de vil uden tvivl få fødderne holdt til ilden.

Når det kommer til at skubbe, bliver alle bundet ind i en mudret grim juridisk kamp.

Forsøg på at bruge escape-klausuler for at undgå AI-ansvar

Jeg nævnte tidligere, at paragraf 5 i FTC-loven indeholder juridisk sprogbrug om ulovlig reklamepraksis. Der er forskellige juridiske smuthuller, som enhver klog advokat potentielt ville bruge til fordel for deres klient, formentlig med rette, hvis klienten faktisk forsøgte at omstøde eller aflede, hvad de anså for at være en falsk anklage.

Overvej for eksempel denne paragraf 5:

  • "Kommissionen har ingen bemyndigelse i henhold til dette afsnit eller afsnit 57a i denne titel til at erklære en handling eller praksis ulovlig med den begrundelse, at en sådan handling eller praksis er uretfærdig, medmindre handlingen eller praksis forårsager eller kan forventes at forårsage væsentlig skade på forbrugere, som ikke med rimelighed kan undgås af forbrugerne selv og ikke opvejes af udligningsfordele for forbrugerne eller konkurrencen. Ved afgørelsen af, om en handling eller praksis er urimelig, kan Kommissionen betragte etablerede offentlige politikker som beviser, der skal tages i betragtning sammen med alle andre beviser. Sådanne hensyn til den offentlige orden tjener muligvis ikke som det primære grundlag for en sådan beslutning” (kilde: Section 5 of the FTC Act).

Nogle har fortolket denne klausul for at antyde, at hvis man siger, at et firma reklamerede for deres AI og gjorde det på en ellers tilsyneladende uhyggelig måde, opstår spørgsmålet om, hvorvidt reklamen måske var i stand til at undslippe skærsilden, så længe annoncerne: (a) mislykkedes: at forårsage "væsentlig skade for forbrugerne", (b) og en sådan var "undgåelig af forbrugerne selv", og (c) blev "ikke opvejet af udligningsfordele for forbrugerne eller konkurrencen".

Forestil dig denne use case. Et firma beslutter sig for at hævde, at deres generative AI kan hjælpe dit mentale helbred. Det viser sig, at firmaet har lavet en app, der inkorporerer den generative AI fra en populær AI-producent. Den resulterende app udråbes som værende i stand til at "hjælpe dig med at opnå ro i sindet ved hjælp af AI, der interagerer med dig og dulmer din angste sjæl."

Som en sidebemærkning har jeg diskuteret farerne ved at generativ AI bliver brugt som rådgiver for mental sundhed, se min analyse på linket her , linket her.

Tilbage til fortællingen. Antag, at en forbruger abonnerer på den generative AI, der angiveligt kan hjælpe deres mentale sundhed. Forbrugeren siger, at de stolede på annoncerne fra firmaet, der tilbyder AI-appen. Men efter at have brugt AI'en, mener forbrugeren, at de mentalt ikke har det bedre, end de var før. For dem bruger AI-appen vildledende og falsk reklame.

Jeg vil ikke dykke ned i de juridiske forviklinger og vil blot bruge dette som en praktisk folie (konsulter din advokat for passende juridisk rådgivning). For det første, led forbrugeren "væsentlig skade" som følge af brugen af ​​AI-appen? Et argument er, at de ikke led en "væsentlig" skade og blot tilsyneladende ikke opnåede, hvad de troede, de ville opnå (et modargument er, at dette udgør en form for "væsentlig skade" og så videre). For det andet, kunne forbrugeren med rimelighed have undgået en sådan skade, hvis der opstod en skade? Det formodede forsvar er lidt, at forbrugeren ikke på en eller anden måde var tvunget til at bruge AI-appen og i stedet frivilligt valgte at gøre det, plus at de måske har brugt AI-appen forkert og derfor undermineret de forventede fordele osv. For det tredje gjorde AI-appen evt. har tilstrækkelig værdi eller fordel for forbrugerne til, at påstanden fra denne forbruger opvejes i det hele?

Du kan forvente, at mange af AI-producenterne og dem, der udvider deres produkter og tjenester med AI, vil hævde, at uanset hvad deres AI eller AI-infunderede tilbud gør, giver de på balancen en nettofordel for samfundet ved at inkorporere AI'en . Logikken er, at hvis produktet eller tjenesten ellers er til gavn for forbrugerne, øger eller styrker tilføjelsen af ​​AI disse fordele. Ergo, selvom der er nogle potentielle ulemper, overvælder opsiderne ulemperne (forudsat at ulemperne ikke er samvittighedsløse).

Jeg stoler på, at du kan se, hvorfor der er rigeligt behov for advokater af dem, der gør eller gør brug af kunstig intelligens.

FTC giver praktiske advarselsord om AI-annoncering

For at vende tilbage til FTC's blogindlæg den 27. februar 2023, er der nogle ganske praktiske forslag til at afværge AI-annonceringspåstanden uden for grænserne.

Her er nogle vigtige punkter eller spørgsmål, der er rejst i blogindlægget:

  • "Overdriver du, hvad dit AI-produkt kan gøre?"
  • "Lover du, at dit AI-produkt gør noget bedre end et ikke-AI-produkt?"
  • "Er du klar over risiciene?"
  • "Bruger produktet overhovedet AI?"

Lad os kort pakke et par af disse spidse spørgsmål ud.

Overvej det andet punktopstillede punkt om AI-produkter versus et betragtet sammenligneligt ikke-AI-produkt. Det er fristende tillokkende at reklamere for, at dit AI-augmenterede produkt er tonsvis bedre end det sammenlignelige ikke-AI-produkt, der findes. Du kan lave alverdens vilde håndvifte hele dagen lang ved blot at hylde, at siden AI er inkluderet i dit produkt, skal det være bedre. Nemlig alt sammenligneligt, der undlader at bruge AI, er åbenlyst og iboende ringere.

Dette bringer det berømte legendariske slogan "Hvor er oksekødet?"

Vægten er, at hvis du ikke har noget håndgribeligt og indholdsmæssigt at bakke påstanden op om, er du på ret snæver og juridisk fare. Du er på kviksand. Hvis du bliver bedt om det, skal du fremvise en form for tilstrækkeligt eller tilstrækkeligt bevis for, at det AI-tilsatte produkt faktisk er bedre end ikke-AI-produktet, forudsat at du fremsætter en sådan påstand. Dette bevis burde ikke være en forvrænget affære bagefter. Du ville klogere og sikrere at have dette i hånden på forhånd, før du fremsætter disse reklamepåstande.

I teorien burde du være i stand til at give et rimeligt udseende af beviser til støtte for en sådan påstand. Du kunne for eksempel have lavet en undersøgelse eller test, der involverer dem, der bruger dit AI-tilføjede produkt i sammenligning med dem, der bruger et ikke-AI-sammenlignbart produkt. Dette er en lille pris at betale for potentielt at klare en truende straf hen ad vejen.

En anden advarsel er, at du ikke gør den blunk-vink-form for tøsede anstrengelser for at forsøge at støtte dine reklamepåstande om AI. Oddsene er, at hvis du tilbyder en undersøgelse, som du har lavet af AI-brugere versus ikke-AI-brugere, vil den blive nøje inspiceret af andre eksperter, der tages i brug. De kan f.eks. bemærke, at du måske lægger tommelfingeren på skalaen efter, hvordan du valgte dem, der blev undersøgt eller testet. Eller måske vil du så langt som at betale de AI-brugere for at få dem til at udråbe, hvor fantastisk dit produkt er. Alle former for trick er muligt. Jeg tvivler på, at du vil ind dobbelt problem når de luskede påfund bliver opdaget.

Skift til et af de andre punktopstillinger og overvej det fjerde punkttegn, der spørger, om AI overhovedet bliver brugt under en bestemt omstændighed.

Den hurtige og beskidte tilgang består i disse dage af opportunister, der vælger at mærke enhver form for software som indeholdende eller bestående af AI. Kunne lige så godt komme med på AI-vognen, siger nogle. De er i nogen grad i stand til at slippe af sted med dette, fordi definitionen af ​​kunstig intelligens generelt er tåget og spænder vidt, se min dækning i Bloomberg lov på det irriterende juridiske spørgsmål om, hvad AI er til linket her.

Forvirringen over, hvad AI er, vil potentielt give en vis beskyttelse, men den er ikke uigennemtrængelig.

Her er, hvad FTC-bloggen nævner:

  • "I en undersøgelse kan FTC-teknologer og andre kigge under motorhjelmen og analysere andre materialer for at se, om det, der er indeni, stemmer overens med dine påstande."

I den forstand, uanset om du bruger "AI" til strengt at overholde et accepteret definitionsvalg af AI, vil du ikke desto mindre blive holdt til de påstande, der fremsættes om, hvad softwaren er blevet udråbt til at kunne gøre.

Jeg satte pris på denne tilføjede kommentar, der fulgte ovenstående punkt i FTC-bloggen:

  • "Før du mærker dit produkt som AI-drevet, skal du også være opmærksom på, at blot at bruge et AI-værktøj i udviklingsprocessen ikke er det samme som et produkt, der har AI i sig."

Det er en subtil pointe, som mange måske ellers ikke ville have overvejet. Her er, hvad det foreslår. Nogle gange kan du gøre brug af et AI-forstærket stykke software, når du udvikler en applikation. Den faktiske målrettede app vil ikke indeholde AI. Du bruger simpelthen AI til at hjælpe dig med at lave AI-appen.

For eksempel kan du bruge ChatGPT til at generere programmeringskode for dig. Koden, der produceres, vil ikke nødvendigvis have nogen AI-komponenter. Din app vil ikke være rimeligt berettiget til at hævde, at den indeholder AI i sig selv (medmindre du selvfølgelig vælger at inkludere en form for AI-teknikker eller teknologi i den). Du kan muligvis sige, at du brugte AI til at hjælpe med at skrive programmet. Selv dette skal siges med omtanke og forsigtighed.

FTC serverer også advarende ord om AI-bias

FTC-bloggen, som jeg nævnte her om emnet AI-bias, giver nogle nyttige advarsler, som jeg mener er ret værd at huske på (jeg vil liste dem om et øjeblik).

Når det kommer til generativ kunstig intelligens, er der fire store bekymringer om faldgruberne ved nutidens muligheder:

  • fejl
  • usandheder
  • AI Hallucinationer
  • bias

Lad os tage et kort kig på bekymringerne for AI-bias.

Her er min omfattende liste over skævvridende veje, der skal udforskes fuldt ud for alle generative AI-implementeringer (diskuteret nøje på linket her):

  • Forstyrrelser i de hentede data fra internettet, der blev brugt til datatræning af den generative AI
  • Forstyrrelser i de generative AI-algoritmer, der bruges til at matche mønsteret på de hentede data
  • Forstyrrelser i det overordnede AI-design af den generative AI og dens infrastruktur
  • Fordomme hos AI-udviklere enten implicit eller eksplicit i udformningen af ​​den generative AI
  • Forstyrrelser af AI-testerne enten implicit eller eksplicit i testen af ​​den generative AI
  • Fordomme i RLHF (forstærkende læring ved menneskelig feedback) enten implicit eller eksplicit af de tildelte menneskelige anmeldere, der giver træningsvejledning til den generative AI
  • Forstyrrelser i AI-feltfacilitering for den operationelle brug af den generative AI
  • Forstyrrelser i enhver opsætning eller standardinstruktioner etableret for den generative AI i dets daglige brug
  • Forstyrrelser målrettet eller utilsigtet omfattet af de prompter, der indtastes af brugeren af ​​den generative AI
  • Forstyrrelser af en systemisk tilstand versus en ad hoc-optræden som en del af den tilfældige probabilistiske outputgenerering af den generative AI
  • Fordomme, der opstår som et resultat af justeringer i farten eller i realtid eller datatræning, der opstår, mens den generative AI er under aktiv brug
  • Forstyrrelser introduceret eller udvidet under AI-vedligeholdelse eller vedligeholdelse af den generative AI-applikation og dens mønstermatchende kodning
  • Andet

Som du kan se, er der masser af måder, hvorpå unødige skævheder kan snige sig ind i udviklingen og feltet af AI. Dette er ikke en en-og-gjort form for bekymring. Jeg sammenligner dette med en muldvarp situation. Du skal være flittig og til enhver tid forsøge at opdage og fjerne eller afbøde AI-fordomme i dine AI-apps.

Overvej disse fornuftige pointer, der blev fremsat i FTC-bloggen af ​​19. april 2021 (disse punkter gælder stadig, uanset om de er ældgamle med hensyn til AI-fremskridtstidsskalaer):

  • "Start med det rigtige fundament"
  • "Pas på diskriminerende resultater"
  • "Omfavn gennemsigtighed og uafhængighed"
  • "Lad være med at overdrive, hvad din algoritme kan, eller om den kan levere retfærdige eller upartiske resultater"
  • "Fortæl sandheden om, hvordan du bruger data"
  • "Gør mere godt end skade"
  • "Hold dig selv ansvarlig - eller vær klar til, at FTC gør det for dig"

En af mine favoritter af ovenstående punkter er den fjerde, der er anført, som refererer til den ofte brugte påstand eller myte om, at på grund af inkorporering af AI, skal en given app være upartisk.

Sådan går det.

Vi ved alle, at mennesker er forudindtaget. Vi falder på en eller anden måde i den mentale fælde, at maskiner og kunstig intelligens er i stand til at være uvildige. Så hvis vi er i en situation, hvor vi kan vælge mellem at bruge et menneske versus AI, når vi søger en form for service, kan vi blive fristet til at bruge AI. Håbet er, at AI ikke vil være forudindtaget.

Dette håb eller denne antagelse kan forstærkes, hvis skaberen eller markspilleren af ​​AI proklamerer, at deres AI er utvivlsomt og utvivlsomt upartisk. Det er den trøstende prikken over i'et. Vi er allerede klar til at blive ført ned ad den primula-sti. Reklamen slår aftalen i hånden.

Problemet er, at der ikke er nogen særlig sikkerhed for, at AI'en er upartisk. AI-mageren eller AI-markspilleren lyver måske om AI-fordomme. Hvis det virker alt for ondskabsfuldt, så lad os overveje, at AI-skaberen eller AI-markspilleren måske ikke ved, om deres AI har skævheder eller ej, men de beslutter sig alligevel for at fremsætte en sådan påstand. For dem virker dette som en rimelig og forventet påstand.

FTC-bloggen indikerede dette afslørende eksempel: "Lad os f.eks. sige, at en AI-udvikler fortæller kunderne, at dens produkt vil give '100 % uvildige ansættelsesbeslutninger', men algoritmen blev bygget med data, der manglede race- eller kønsdiversitet. Resultatet kan være bedrag, diskrimination – og en FTC retshåndhævende handling” (ibid).

De handlinger, du skal tage om dine AI-annoncespil

Virksomheder vil nogle gange komme i potentielt varmt vand, fordi den ene hånd ikke ved, hvad den anden hånd laver.

I mange virksomheder, når en AI-app er klar til at blive frigivet, vil marketingteamet få ringe information om, hvad AI-appen gør. Den klassiske linje er, at AI-detaljerne er lige over deres hoveder, og de er ikke teknisk kyndige nok til at forstå det. Ind i dette hul kommer potentialet for besynderlig AI-reklame. Markedsførerne gør, hvad de kan, baseret på hvilke bidder eller godbidder, der deles med dem.

Jeg siger ikke, at markedsføringssiden blev narret. Kun at der ofte er et hul mellem AI-udviklingssiden af ​​huset og marketingsiden. Selvfølgelig er der lejligheder, hvor marketingteamet i det væsentlige er narret. AI-udviklerne kan prale af proklamerede super-menneskelige AI-evner, som marketingfolkene formentlig ikke har nogen meningsfuld måde at afvise eller udtrykke forsigtighed på. Vi kan overveje andre katastrofale permutationer. Det kunne være, at AI-udviklerne var på forhånd om begrænsningerne ved AI, men marketingsiden valgte at tilføje noget juice ved at overvurdere, hvad AI'en kan. Du ved, hvordan det er, de AI-teknikere forstår bare ikke, hvad der skal til for at sælge noget.

Nogen skal være dommer og sørge for, at de to lidt uensartede afdelinger har et ordentligt møde mellem sindene. Den udtænkte reklame skal være baseret på grundlag, som AI-udviklerne burde være i stand til at fremlægge bevis for eller bevis for. Desuden, hvis AI-udviklerne er gennemsyret af ønsketænkning og allerede drikker AI Kool-Aid, skal dette identificeres, så marketingteamet ikke bliver forblændet af alt for optimistiske og grundløse forestillinger.

I nogle virksomheder er rollen som en Chief AI Officer er blevet lanceret som en mulig forbindelse for at sikre, at ledelsen på højeste niveau overvejer, hvordan AI kan bruges i virksomheden og som en del af virksomhedens produkter og tjenester. Denne rolle vil forhåbentlig også tjene til at samle AI-siden af ​​huset og marketingsiden af ​​huset, og gnide albuerne med marketingchefen eller Chief Marketing Officer (CMO). Se min diskussion om denne nye rolle, kl linket her.

En anden meget vigtig rolle skal inddrages i disse spørgsmål.

Den juridiske side af huset er lige så afgørende. En Chief Legal Officer (CLO) eller chefrådgiver eller ekstern rådgiver bør være involveret i AI-facetterne i hele udviklingen, feltet og markedsføringen af ​​AI'en. Desværre er det juridiske team ofte det sidste, der kender til en sådan AI-indsats. Et firma, der får en juridisk meddelelse som følge af en retssag eller undersøgelse af føderale myndigheder, vil pludselig indse, at de juridiske folk måske burde være involveret i deres AI-implementeringer.

En smartere tilgang er at inkludere det juridiske hold, før hesten er ude af stalden. Længe før hesten er ude af stalden. Langt, meget tidligere. For min dækning af kunstig intelligens og juridisk praksis, se linket her , linket her, for eksempel.

Et nyligt online opslag med titlen "Risks Of Overselling Your AI: The FTC Is Watching" af advokatfirmaet Debevoise & Plimpton (et globalt anerkendt internationalt advokatfirma med hovedkontor i New York City), skrevet af Avi Gesser, Erez Liebermann, Jim Pastore, Anna R. Gressel, Melissa Muse, Paul D. Rubin, Christopher S. Ford, Mengyi Xu, og med en offentliggjort dato den 6. marts 2023, giver en særdeles indsigtsfuld indikation af handlinger, som virksomheder bør foretage i forbindelse med deres AI-indsats.

Her er nogle udvalgte uddrag fra blogindlægget (det fulde opslag er kl linket her):

  • "en. AI definition. Overvej at skabe en intern definition af, hvad der passende kan karakteriseres som AI, for at undgå påstande om, at virksomheden fejlagtigt hævder, at et produkt eller en tjeneste anvender kunstig intelligens, når det blot bruger en algoritme eller en simpel ikke-AI-model."
  • "en. Inventory. Overvej at oprette en opgørelse over offentlige udtalelser om virksomhedens AI-produkter og -tjenester."
  • "en. Uddannelse: Uddan dine marketingoverholdelsesteams om FTC-vejledningen og om problemerne med definitionen af ​​AI."
  • "en. anmeldelse: Overvej at have en proces til at gennemgå alle aktuelle og foreslåede offentlige udtalelser om virksomhedens AI-produkter og -tjenester for at sikre, at de er nøjagtige, kan underbygges og ikke overdriver eller overløfter."
  • "en. Leverandørkrav: For AI-systemer, der leveres til virksomheden af ​​en leverandør, skal du passe på ikke blot at gentage leverandørkrav om AI-systemet uden at sikre deres nøjagtighed."
  • "en. Risikovurderinger: For AI-applikationer med høj risiko bør virksomheder overveje at udføre konsekvensanalyser for at bestemme forudsigelige risici, og hvordan man bedst afbøder disse risici, og derefter overveje at afsløre disse risici i eksterne udtalelser om AI-applikationerne."

Efter at have været en topchef og global CIO/CTO ved jeg, hvor vigtigt det juridiske team er for udviklingen og feltet af interne og eksternt vendte AI-systemer, herunder ved licensering eller anskaffelse af tredjepartssoftwarepakker. Især med kunstig intelligens. Det juridiske team skal være indlejret eller i det mindste betragtes som en tæt og indtagende allieret med teknologiteamet. Der er et væld af lovlige landminer relateret til enhver teknologi og markant for AI, som et firma beslutter at bygge eller adoptere.

AI er i dag øverst på listen over potentielle lovlige landminer.

Sammenkoblingen af ​​AI-teknologierne med marketingguruer og med de juridiske advokater er den bedste chance, du har for at gøre tingene rigtigt. Tag alle tre sammen, kontinuerligt og ikke forsinket eller en gang, så de kan finde ud af en marketing- og annonceringsstrategi og implementering, der giver fordelene ved AI-implementering. Målet er at minimere spøgelsen af ​​lovens lange arm og dyre retssager, der skader omdømmet, og samtidig maksimere den passende retfærdige og afbalancerede anerkendelse, som AI reelt giver.

Guldlok-princippet gælder for kunstig intelligens. Du vil udråbe, at AI kan gøre store ting, forudsat at den kan og gør, beviseligt understøttet af veludtænkte beviser og beviser. Du ønsker ikke utilsigtet at vige tilbage fra alt, hvad AI tilføjer som værdi. Dette undergraver AI-additive egenskaber. Og i den anden yderlighed ønsker du bestemt ikke at lave tossede pralende annoncer, der går af sporet og fremsætter påstande, der er ondsindede og åbne for juridiske forviklinger.

Suppen skal have den helt rigtige temperatur. For at opnå dette kræver det dygtige og AI-kyndige kokke fra det tekniske team, marketingteamet og det juridiske team.

I et nyligt opslag fra advokatfirmaet Arnold & Porter (et velkendt multinationalt advokatfirma med hovedkontor i Washington, DC), skrev Isaac E. Chao og Peter J. Schildkraut et stykke med titlen "FTC Warns: All You Need To Know About AI You Learned In Kindergarten” (opslået dato 7. marts 2023, tilgængelig på linket her), og lagde denne afgørende advarende vægt på de juridiske forpligtelser forbundet med brug af kunstig intelligens:

  • "I en nøddeskal, lad dig ikke være så betaget af AI's magi, at du glemmer det grundlæggende. Vildledende annoncering udsætter en virksomhed for ansvar i henhold til føderale og statslige forbrugerbeskyttelseslove, hvoraf mange giver mulighed for private handlingsrettigheder ud over regeringshåndhævelse. Vildledte kunder – især B2B-kunder – kan også søge erstatning i henhold til forskellige kontraktmæssige og erstatningsteorier. Og offentlige virksomheder er nødt til at bekymre sig om SEC eller aktionærernes påstande om, at de ikke-underbyggede påstande var væsentlige."

Indse, at selvom din kunstig intelligens ikke er rettet mod forbrugere, er du ikke aksiomatisk uden problemer med hensyn til potentielle lovlige eksponeringer. Kunder, der er virksomheder, kan også beslutte, at dine AI-påstande fejlagtigt eller måske svigagtigt vildledte dem. Alle former for juridisk fare kan opstå.

Konklusion

Mange mennesker venter på at se, hvilken AI-reklame-relateret debacle opstår fra det eksisterende og voksende AI-vanvid. Nogle mener, at vi har brug for et eksemplar i Volkswagen-kaliber eller en arketype af L'Oréal-statur for at få alle til at indse, at tilfældene med uhyrligt ubegrundede påstande om kunstig intelligens ikke vil blive tolereret.

Indtil en stor nok juridisk kamp om en AI-reklame uden for rammerne får udbredt opmærksomhed på sociale medier og i de daglige nyheder, er bekymringen, at AI-praleri-bonanzaen vil fortsætte. Markedsføringen af ​​kunstig intelligens vil blive ved med at klatre op ad stigen af ​​besynderlighed. Højere og højere går dette. Hver næste AI bliver nødt til at lave en en-upmanship af dem før den.

Mit råd er, at du nok ikke vil være arketypen og lande i historiebøgerne for at være blevet fanget med din hånd i AI-udsmyknings-kagedåsen. Ikke et godt udseende. Kostbar. Muligvis kunne ødelægge forretningen og tilhørende karrierer.

Bliver du fanget?

Jeg opfordrer indtrængende til, at hvis du er opmærksom på, hvad du gør, vil det ikke være en mareridtsagtig bekymring at blive fanget, da du vil have gjort den rette due diligence og kan sove roligt med hovedet lejret på din pude.

Til dem af jer, der ikke er villige til at følge det råd, vil jeg efterlade det sidste ord for denne milde forvarsel i FTC-bloggen den 27. februar 2023: "Uanset hvad den kan eller ikke kan, er AI vigtigt, og det samme er de påstande, du fremsætter om det. Du behøver ikke en maskine til at forudsige, hvad FTC kan gøre, når disse påstande ikke understøttes."

Nå, jeg formoder, at man kunne bruge AI til at hjælpe dig med at undgå ulovlig AI-reklame, men det er en fortælling til en anden dag. Bare husk at være betænksom og sandfærdig omkring din AI. Det og sørg for, at du har de bedste juridiske beagler, der ihærdigt giver deres hengivne juridiske visdom om disse spørgsmål.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/03/12/federal-trade-commission-aims-to-bring-down-the-hammer-on-those-outsized-unfounded-claims- om-generativ-ai-chatgpt-og-andre-ai-advarer-ai-etik-og-ai-lov/