Her er, hvordan OpenAI planlægger at rense ChatGPT fra falsk information

OpenAI annoncerede den 31. maj sine bestræbelser på at forbedre ChatGPTs matematiske problemløsningsevner med det formål at reducere tilfælde af kunstig intelligens (AI) hallucinationer. OpenAI understregede afhjælpning af hallucinationer som et afgørende skridt i retning af at udvikle tilpasset AGI.

I marts drev introduktionen af ​​den seneste version af ChatGPT, GPT-4, kunstig intelligens yderligere ind i mainstream. Generative AI-chatbots har dog længe kæmpet med faktuel nøjagtighed og af og til genereret falsk information, almindeligvis omtalt som "hallucinationer". Bestræbelserne på at reducere disse AI-hallucinationer blev annonceret gennem et opslag på deres hjemmeside.

AI-hallucinationer refererer til tilfælde, hvor kunstig intelligens-systemer genererer output, der er faktuelt forkerte, vildledende eller ikke understøttet af data fra den virkelige verden. Disse hallucinationer kan manifestere sig i forskellige former, såsom at generere falsk information, opfinde ikke-eksisterende begivenheder eller personer eller give unøjagtige detaljer om bestemte emner.

OpenAI foretog forskning for at undersøge effektiviteten af ​​to typer feedback – "outcome supervision" og "proces supervision." Outcome supervision involverer feedback baseret på det endelige resultat, mens proces supervision giver input til hvert trin i en tankekæde. OpenAI evaluerede disse modeller ved hjælp af matematiske problemer, genererede flere løsninger og valgte den højest rangerede løsning i henhold til hver feedbackmodel.

Efter grundig analyse fandt forskerholdet ud af, at procestilsyn gav en overlegen præstation, da det tilskyndede modellen til at overholde en menneskelig godkendt proces. I modsætning hertil viste resultatsupervision sig mere udfordrende at granske konsekvent.

OpenAI erkendte, at implikationerne af procesovervågning strækker sig ud over matematik, og yderligere undersøgelse er nødvendig for at forstå dens virkninger på forskellige domæner. Det udtrykte muligheden for, at hvis de observerede resultater holder stik i bredere sammenhænge, ​​kunne processupervision tilbyde en gunstig kombination af præstation og tilpasning sammenlignet med resultatsupervision. For at lette forskningen offentliggjorde virksomheden det komplette datasæt af procestilsyn, hvilket inviterede til udforskning og undersøgelse på dette område.

Relateret: AI-krav kaster kortvarigt Nvidia til $1T-klub

Selvom OpenAI ikke gav eksplicitte tilfælde, der foranledigede deres undersøgelse af hallucinationer, eksemplificerede to nylige hændelser problemet i virkelige scenarier.

I en nylig hændelse erkendte advokat Steven A. Schwartz i Mata v. Avianca Airlines-sagen at stole på chatbotten som en forskningsressource. Oplysningerne fra ChatGPT viste sig dog at være fuldstændig opdigtede, hvilket fremhævede problemet.

OpenAIs ChatGPT er ikke det eneste eksempel på kunstige intelligenssystemer, der støder på hallucinationer. Microsofts AI undersøgte under en demonstration af sin chatbot-teknologi i marts indtjeningsrapporter og genererede unøjagtige tal for virksomheder som Gap og Lululemon.

Magazine: 25 handlende satser på ChatGPTs aktievalg, AI suger ved terningkast og mere

Kilde: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information