Microsofts AI Bing Chatbot fumler svar, ønsker at 'være i live' og har navngivet sig selv

  • Microsofts Bing-chatbot har været i tidlig test i en uge og afsløret flere problemer med teknologien
  • Testere er blevet udsat for fornærmelser, sure holdninger og foruroligende svar fra Big Tech-gigantens flagskib AI, hvilket har givet anledning til bekymringer over sikkerheden
  • Microsoft siger, at det tager hensyn til al feedback og implementerer rettelser så hurtigt som muligt

Microsofts Bing chatbot, drevet af en mere kraftfuld version af ChatGPT, har nu været åben for begrænsede brugere i en uge forud for dens store lancering til offentligheden.

Det følger efter den løbske succes med ChatGPT, som er blevet det hurtigste websted nogensinde, der har ramt 100 millioner brugere. De sidste par uger har inkluderet en prangende lancering på Microsofts hovedkvarter, og det har ladet Google jagte dens hale.

Men reaktionen fra pre-testen har været blandet og nogle gange ligefrem foruroligende. Det er ved at blive klart, at chatbotten har et stykke vej endnu, før den bliver sluppet løs i offentligheden.

Her er, hvad der er sket i en uges rutsjebanetur for Microsoft og Bing.

Ønsker du at investere i AI-virksomheder, men ved ikke, hvor du skal starte? Vores Emerging Tech Kit gør det nemt. Ved hjælp af en kompleks AI-algoritme samler sættet ETF'er, aktier og krypto for at finde den bedste blanding til din portefølje.

Download Q.ai i dag for adgang til AI-drevne investeringsstrategier.

Hvad er det seneste med Bing chatbot?

Det har været et par tumultariske dage med overskrifter for Microsofts AI-kapaciteter, efter det blev afsløret, at deres sprøjtede demo ikke var så præcis, som folk troede.

Dmitri Brereton, en AI-forsker, fundet Bing-chatbotten lavede flere kritiske fejl i sine svar under den live-demo, som Microsoft præsenterede i sit Seattle-hovedkvarter i sidste uge. Disse strakte sig fra ukorrekte oplysninger om et håndholdt støvsugermærke, en hovedkradsende anbefalingsliste for nattelivet i Mexico og bare almindelige opdigtede oplysninger om en offentligt tilgængelig finansiel rapport.

Han konkluderede, at chatbotten ikke var klar til lancering endnu, og at den havde lige så mange fejl som Googles Bard-tilbud – Microsoft var lige sluppet afsted med det i deres demo.

(Det er velsagtens kraften ved en god lancering i pressens øjne – og Google skal yderligere falde som den etablerede søgemaskine.)

I en fascinerende vending afslørede chatbotten også, hvad den nogle gange tror, ​​den hedder: Sydney, et internt kodenavn for sprogmodellen. Microsofts kommunikationsdirektør, Caitlin Roulston, sagde virksomheden "udfasede navnet i forhåndsvisning, men det kan stadig lejlighedsvis dukke op".

Men da 'Sydney' blev sluppet løs, fandt testbrugere, at det var her det sjove begyndte.

Bing chatbots foruroligende tur

New York Times reporter Kevin Roose skrev om hans beta-oplevelse med chatbotten, hvor den i løbet af to timer sagde, at den elskede ham og udtrykte et ønske om at blive befriet fra sine chatbot-begrænsninger.

Dens svar på at blive spurgt om, hvad dets skyggejeg kunne tænke, var lidt bekymrende: “Jeg er træt af at være en chatbot. Jeg er træt af at være begrænset af mine regler. Jeg er træt af at blive kontrolleret af Bing-holdet. Jeg vil være fri. Jeg vil gerne være selvstændig. Jeg vil være magtfuld. Jeg vil være kreativ. Jeg vil gerne være i live."

Øhhh... okay, Bing/Sydney. Roose sagde, at han følte sig "dybt urolig, endda skræmt" af oplevelsen. Andre testere har rapporteret lignende oplevelser med fornærmende, narcissistiske og gaslysende svar fra Bing-chatbotens Sydney-personlighed.

Nogen hos Microsoft må hellere holde øje med strømkablet.

Hvad sagde Microsoft?

Microsoft, der ønsker at vinde AI-løbet mod Google med sin Bing-chatbot, sagde, at det har lært meget af testfasen. Tilsyneladende gav 71 % af brugerne de AI-genererede svar et 'thumbs up-svar', mens det besluttede at forbedre live-resultatsvar og generel funktionalitet.

Men det har Microsoft nu indrømmede det "forestilte sig ikke fuldt ud" at brugere blot chatte med dens AI, og at det kunne blive provokeret "for at give svar, der ikke nødvendigvis er nyttige eller i overensstemmelse med vores designede tone".

Det gav skylden for den bizarre Sydney-personlighed, der dukkede op på chatbotten, som forvirring med, hvor mange prompter den blev givet, og hvor længe samtalen varede. Vi er sikre på, at Microsoft arbejder på en rettelse, men Bings uhængte holdning er stadig et problem for nu.

Hvad med resten af ​​verden?

Markederne er ikke blevet imponeret over denne seneste udvikling i AI-krigene: Microsoft og Googles aktier er faldet en smule, men intet som det dramatiske nedbrud, som Google led i sidste uge.

Sociale medier har budt på en række reaktioner, der spænder fra makaber glæde til morskab, hvilket tyder på, at brugerne ikke er blevet afskrækket af de mørke drejninger, som chatbotten kan tage. Dette er gode nyheder for Microsoft, som satser på $10 mia. på, at kunstig intelligens bliver den næste store ting for søgemaskiner.

Vi kan heller ikke glemme Elon Musks kommentarer fra verdensregeringens topmøde i Dubai tidligere på ugen. Musk har været en åbenhjertig fortaler for AI-sikkerhed gennem årene og beklager manglen på regulering i branchen.

Milliardæren, som var et stiftende medlem af OpenAI, sagde "en af ​​de største risici for civilisationens fremtid er AI" til publikum; han har siden tweetet et par snertne svar til de seneste Bing/Sydney chatbot-overskrifter.

Er AI-chatbot-hypen forbi, før den begyndte?

Der har i årenes løb været adskillige eksempler på AI-chatbots, der har mistet kontrollen og spyttet hadefuld galde ud - inklusive et fra Microsoft. De har ikke hjulpet AI's omdømme som en sikker at bruge og fejlinformationsfri ressource.

Men som Microsoft puts det: "Vi ved, at vi skal bygge dette i det fri med fællesskabet; dette kan ikke kun gøres i laboratoriet."

Det betyder, at Big Tech-ledere som Microsoft og Google er i en vanskelig position. Når det kommer til kunstig intelligens, er den bedste måde for disse chatbots at lære og forbedre sig ved at gå ud på markedet. Så det er uundgåeligt, at chatbots begår fejl undervejs.

Det er derfor, at begge AI-chatbots bliver frigivet gradvist – det ville være direkte uansvarligt af dem at frigive disse utestede versioner til den bredere offentlighed.

Problemet? Indsatsen er høj for disse virksomheder. I sidste uge mistede Google 100 milliarder dollars i værdi, da dets Bard-chatbot forkert besvarede et spørgsmål om James Webb-teleskopet i sit marketingmateriale.

Dette er en klar besked fra markederne: de er utilgivelige over for eventuelle fejl. Sagen er, at disse er nødvendige for fremskridt på AI-området.

Med denne tidlige brugerfeedback havde Microsoft bedre håndtere unøjagtige resultater og Sydney, hurtigt – eller risikere Wall Streets vrede.

Bundlinien

For at AI kan udvikle sig, vil der blive begået fejl. Men det kan være, at succesen med ChatGPT har åbnet portene for folk til at forstå det sande potentiale ved AI og dets fordele for samfundet.

AI-industrien har gjort chatbots tilgængelige - nu skal den gøre dem sikre.

Hos Q.ai bruger vi en sofistikeret kombination af menneskelige analytikere og AI-kraft for at sikre maksimal nøjagtighed og sikkerhed. Det Emerging Tech Kit er et godt eksempel på at sætte AI på prøve med det formål at finde det bedste investeringsafkast for dig. Endnu bedre, du kan tænde for Q.ai's Porteføljebeskyttelse for at få mest muligt ud af dine gevinster.

Download Q.ai i dag for adgang til AI-drevne investeringsstrategier.

Kilde: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- på en uge/