OpenAI afviser New York Times retssag, påstår manipulation af AI-model

Som svar på The New York Times' nylige retssag mod OpenAI, har den førende kunstig intelligens-forskningsorganisation udsendt en officiel erklæring, der på det kraftigste afviser beskyldningerne. OpenAI hævder, at The New York Times manipulerede prompter for at få AI-modeller til at gengive data relateret til deres artikler uden tilladelse. Retssagen, anlagt den 27. december 2023, påstår uautoriseret brug af Times-indhold til træning af store sprogmodeller (LLM'er). OpenAI hævder, at det pågældende indhold var offentligt tilgængeligt på internettet og faldt inden for grænserne for rimelig brug for AI-modeltræning. 

Afsløring af påstået hurtig manipulation

OpenAI hævder, at The New York Times med vilje vildledte deres AI-model, ChatGPT, ved at fremstille prompter for at fremkalde ordret data fra år gamle artikler, som allerede blev bredt spredt på forskellige tredjepartswebsteder. Denne manipulation, ifølge OpenAI, fordrejede modellens adfærd, hvilket tyder på, at Times enten instruerede modellen til at genvinde eller kirsebærplukkede eksempler fra adskillige forsøg. Organisationen fastholder, at på trods af brugen af ​​sådanne prompter, opfører ChatGPT sig typisk ikke som antydet af Times.

Overraskelse og skuffelse for OpenAI

OpenAI udtrykte sin overraskelse og skuffelse efter at have opdaget retssagen gennem The New York Times selv. Organisationen hævder, at de havde informeret Times om, at deres indhold havde minimal indflydelse på træningen af ​​deres eksisterende AI-modeller og ikke ville bidrage væsentligt til fremtidig træning. OpenAI insisterer på, at de aldrig havde modtaget nogen forudgående information om retssagen før dens offentlige indgivelse.

Uopfyldte anmodninger om eksempler

OpenAI afslørede, at publikationen under deres samarbejde med The New York Times havde nævnt tilfælde af regurgitation, men da de blev presset på for at give specifikke eksempler, undlod Times at overholde. OpenAI oplyser, at de tager påstande om opstød alvorligt og citerede deres hurtige handling i juli, da de omgående fjernede en ChatGPT-funktion, der gengav indhold i realtid på utilsigtede måder.

Fair use og licensaftaler

OpenAI understreger princippet om fair use og hævder, at træning af AI-modeller ved hjælp af offentligt tilgængelige internetmaterialer er i overensstemmelse med langvarige og bredt accepterede præcedenser. Organisationen mener, at dette princip er retfærdigt for skabere, afgørende for innovatører og afgørende for amerikansk konkurrenceevne. De hævder endvidere, at hvis indhold er tilgængeligt på internettet, falder det ind under fair use-regulering og kan bruges til AI-modeltræning.

Fravalgsmulighed for databrug

OpenAI tilbyder en fravalgsmulighed for enkeltpersoner eller enheder, der ikke ønsker at få deres data brugt til træning af AI-modeller. De fremhæver, at The New York Times udnyttede denne mulighed i august 2023, hvilket antyder, at publikationen var bekendt med proceduren, men stadig forfulgte retssagen.

Flere retssager mod OpenAI og Microsoft

New York Times er ikke den eneste enhed, der forfølger retslige skridt mod OpenAI og Microsoft for påstået uautoriseret databrug. Tidligere i samme uge anlagde to forfattere en retssag og hævdede, at OpenAI brugte deres offentliggjorte arbejde til at træne sine AI-modeller.

OpenAI bestrider på det kraftigste The New York Times' retssag og hævder, at publikationen manipulerede tilskyndelser til at få AI-modeller til at regurgitere data fra offentligt tilgængelige internetmaterialer. OpenAI hævder, at deres handlinger er i overensstemmelse med fair use-principperne og understreger deres forpligtelse til at behandle påstande om opstød omgående. Derudover har de implementeret en fravalgsmulighed for databrug, hvilket yderligere understreger deres forpligtelse til gennemsigtighed og overholdelse af indholdsskaberes præferencer.

Kilde: https://www.cryptopolitan.com/openai-dismisses-new-york-times-lawsuit/