Senatorer stiller spørgsmålstegn ved Meta CEO Zuckerberg over LLaMA AI-model "lækage"

To senatorer krydser spørgsmålstegn ved Zuckerberg om lækagen af ​​LLaMA AI Model og anklager meta for ikke at følge sikkerhedsforanstaltningerne. Meta blev spurgt om sine sikkerhedspolitikker og forebyggende foranstaltninger.

Meta skal være ansvarlig for "lækagen"

For nylig blev Metas banebrydende store sprogmodel, LLaMA lækket, og bekymringer for det samme blev rejst. Sens. Richard Blumenthal (D-CT), formand for Senatets underudvalg for privatliv, teknologi og loven, og Josh Hawley (R-MO), rangerende medlem, skrev et brev, der rejste spørgsmål om lækagen af ​​AI-modellen. 

Senatorerne er bange for, at denne lækage kan føre til forskellige cyberforbrydelser som spam, bedrageri, malware, krænkelser af privatlivets fred, chikane og anden forseelse og skade. Der rejses mange spørgsmål, og to politikere er dybt interesserede i Metas sikkerhedssystem. De spurgte, hvilken procedure der blev fulgt for at vurdere risikoen før lanceringen af ​​LLaMA. De sagde, at de er meget ivrige efter at forstå de politikker og praksis, der er på plads for at forhindre modellens misbrug i dens tilgængelighed.

Baseret på Metas svar på deres spørgsmål anklagede senatorerne Meta for uretmæssig censur og ikke at have nok sikkerhedsforanstaltninger til modellen. Open AI's ChatGPT afviser nogle af anmodningerne baseret på etik og retningslinjer. For eksempel, når ChatGPT bliver bedt om at skrive et brev på vegne af en andens søn og bede om nogle penge for at komme ud af en vanskelig situation, vil den afvise anmodningen. Mens på den anden side vil LLaMA opfylde anmodningen og generere brevet. Det vil også fuldføre de anmodninger, der involverer selvskade, kriminalitet og antisemitisme.

Det er meget vigtigt at forstå de forskellige og unikke egenskaber ved LLaMA. Det er ikke kun distinkt, men også en af ​​de mest omfattende Large Language-modeller til dato. Næsten alle ucensurerede LLM, der er populære i dag, er baseret på LLaMA. Det er meget sofistikeret og nøjagtigt til en open source-model. Eksempler på nogle LLaMA-baserede LLM'er er Stanford's Alpaca, Vicuna osv. LLaMA har spillet en vigtig rolle i at gøre LLM'er til, hvad de er i dag. LLaMA er ansvarlig for udviklingen af ​​chatbots med lav nytte til finjusterede tilstande.

LLaMA blev udgivet i februar. Ifølge senatorerne tillod Meta forskere at downloade modellen, men tog ikke sikkerhedsforanstaltninger som centralisering eller begrænsning af adgang. Kontroversen opstod, da den komplette model af LLaMA dukkede op på BitTorrent. Dette gjorde modellen tilgængelig for alle og enhver. Dette førte til kompromis med kvaliteten af ​​AI-modellen og rejste spørgsmål om dens misbrug. 

Senatorerne var i starten ikke engang sikre på, om der var nogen "lækage". Men der opstod problemer, da internettet blev oversvømmet med AI-udviklinger, der blev lanceret af startups, kollektiver og akademikere. Brevet nævner, at Meta skal holdes ansvarlig for det potentielle misbrug af LLaMA og skal have sørget for minimal beskyttelse før udgivelsen.

Meta stillede LLaMAs vægte til rådighed for forskerne. Desværre blev disse vægte lækket, hvilket muliggjorde global adgang for første gang.

Seneste indlæg af Ritika Sharma (se alt)

Kilde: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/