The Cry Wolf Moment Of AI Hype er lidet nyttigt

Selvom jeg er en person, der studerer slutningen af ​​menneskehedens scenarier, tror jeg, at "ekspertbrevet", der foreslår et 6-måneders AI-moratorium eller den nyere udtalelse om, at AI-risiko er på niveau med pandemi og nuklear risiko, begge er overhypede. Den endnu vildere mening om, at vi er nødt til at lukke AI ned, er uansvarlig. Enhver bekymring skal være proportional med de risici, vi står over for. Lige nu er vi ikke i nogen umiddelbar fare fra AI.

Nuværende AI'er er ikke i stand til at overtage samfundet. De har ikke følelser og fortjener ikke beskyttelse, som menneskeliv gør. De er ikke superintelligente og overgår ikke mennesker på nogen generel måde. Faktisk tænker de slet ikke. Lige nu, hvis de tilføres rigelige data, er AI'er meget gode til specifikke opgaver såsom beregning og forudsigelse. Det er ikke bekymrende, det er funktioner, som disse systemer har ved design. Løftet om AI'er omfatter løsning af kræft, transformation af industriel produktion, modellering af fremtidige scenarier og håndtering af miljømæssige udfordringer. Når det er sagt, er der legitime grunde til at kritisere nuværende AI'er for ressourceforbrug, gennemsigtighed, bias, cybersikkerhed og dets fremtidige indvirkning på beskæftigelsen.

AI'er er beregningsmæssigt dyre - hvilket betyder, at de er et stort spild af sparsom, fossil energi. Dette skal løses med det samme. Men det er ikke et eksistentielt spørgsmål, det er et spørgsmål om rationel ressourceanvendelse. Det faktum, at AI'er, der er afhængige af store og ineffektive datamodeller, bliver for dyre at spore og undersøge af den akademiske verden eller regeringen, er et reelt problem. Men det kan umiddelbart løses. Konsortier af akademiske eliteinstitutioner eller regeringer kunne gå sammen og dele computerressourcer, som de har gjort for supercomputing.

Large Language Models (LLM) er AI-modeller, der kan generere naturlige sprogtekster ud fra store mængder data. Et problem med det er, at disse tekster er direkte afledt af andre menneskers ærlige intellektuelle bidrag. De er faktisk stjålet. Generativ AI, i særdeleshed, rekombinerer både forbruger- og organisationsdata samt kreativt indhold i skarpt brud på ophavsretten. Dette er alvorligt, men ikke eksistentielt, og desuden er EU, lobbyister fra Hollywood og de "fem store" bogforlag allerede på sagen. Forvent, at dette vil bremse AI's tyngde. Med den nuværende hastighed vil AI'er løbe tør for gode træningsdata længe før det nærmer sig sansning.

Algoritmer, der allerede bruges til at beregne vores skatter, vælge vores online-feeds eller sætte folk i fængsel, har en slående mangel på gennemsigtighed. Dette har dog været tilfældet i årevis og har intet at gøre med den seneste AI-udvikling. AI bias er en funktion og ikke en fejl. Stereotyping er faktisk den vigtigste tilgang, hvorigennem sådanne modeller fungerer. Bortset fra, at fordommene er skjult i uigennemtrængelige lag af maskinelt ræsonnement, der er undvigende for mennesker, eksperter eller ej. Det, vi bør stille spørgsmålstegn ved, er klogskaben hos de udviklere, der udviklede sådanne systemer, ikke kapaciteten af ​​det system, de skabte, hvilket er givet. Systemer vil sjældent være bedre end visdommen eller intentionerne hos dem, der bygger eller driver det.

AI-træningsdata afspejler de skævheder, der findes i samfundet, hvorfra disse data blev indsamlet. Genbrug af dårlige træningsdata er en bekymrende praksis, der allerede forurener AI-modeller. Nuværende AI-tilgange forstærker simpelthen bias for hurtigt at nå et resultat. Dette er ganske vist det modsatte af, hvad vi ønsker. Det, vi ønsker at gøre, er at bruge teknologi til at sikre menneskelige fejl. At bekymre sig om maskinfejl er spild af menneskelig intelligens.

På trods af "neural netværk"-metaforen ligner nuværende AI'er ikke hjerner på nogen måde. Nuværende AI-systemer kan ikke ræsonnere analogt, som mennesker gør. Det er godt. Vi vil måske faktisk ikke have den slags AI-tilpasning, som ildsjæle går ind for og forsøger at efterligne. Maskiner skal være anderledes end mennesker. Det er sådan, vi kan maksimere hinandens styrker. Og hvordan vi kan holde maskiner adskilte og adskilte. Maskiner bør ikke have nogen interesser i at justere.

AI repræsenterer i stigende grad en betydelig cybersikkerhedstrussel som et aktiv for kriminelle og fjendtlige stater. Men cybersikkerhed er en moden branche med masser af eksperter godt rustet til at håndtere udfordringen. Der er ingen grund til at lukke AI ned på grund af frygt for cybersikkerhed.

Afbrydelse af beskæftigelsen på grund af AI har været et politisk spørgsmål i årevis, først med robotter, nu med softwarebaserede AI-systemer. Det betyder, at regeringerne vil være klar til at håndtere det. MIT Work of The Future-undersøgelsen fandt, at bekymringen om arbejdsløshed på grund af robotter var overvurderet. Mennesker har altid fundet måder at arbejde på og vil også gøre det i fremtiden. Vil produktion blive transformeret af AI? Det sker allerede, men på en ret kontrolleret måde.

Fra tid til anden lider AI af overhypede løfter om nuværende funktionalitet eller fremtidigt omfang. De første AI-vintre startede i 1974-1980, da den amerikanske regering trak sin finansiering. Den anden var fra 1987-1993, da omkostningerne eskalerede, og AI formåede ikke at indfri sine høje løfter.

I afventning af nye paradigmer vil vi i perioden 2025-2030 sandsynligvis gå ind i en tredje AI-vinter. I hvert fald sammenlignet med den varme AI-sommer, vi er lovet. Årsagen er, at på trods af hypen, er store sprogmodeller af alle de ovenfor skitserede årsager ved at nå deres maksimale nytteværdi og vil i sidste ende skulle afløses af beregningsmæssigt mere elegante tilgange, der er mere gennemsigtige.

En sådan kandidat er hyperdimensional computing, som ville få maskiner til at ræsonnere mere effektivt, fordi de giver maskiner semantisk forståelse, evnen til at behandle mening og kontekst bag information fra den virkelige verden. Lige nu forstår AI-systemer ikke forholdet mellem ord og sætninger, de er simpelthen gode til at gætte. Det er utilstrækkeligt. Vi får i sidste ende brug for legemliggjort AI, fordi tænkning er bundet til rumopfattelse. Det er bestemt tilfældet i fremstilling, som er et meget fysisk spil. Vi vil også have brug for AI, der er i stand til menneskelige hukommelsesfunktioner, såsom prioritering baseret på forgrundsvisning af nogle oplysninger og baggrund af anden information. At glemme er et værktøj, mennesker bruger til abstrakt tænkning, til at komme videre fra forældede organisatoriske praksisser, til at træffe beslutninger og til at blive i nuet og er ikke blot en fejl. Ingen maskiner kan gøre det særlig godt endnu.

I mellemtiden er vi nødt til at regulere, men ikke i dette sekund. Og når vi regulerer, må vi hellere gøre det godt. Dårlig regulering af AI vil sandsynligvis gøre situationen værre. Det kan være nyttigt at vække regulatorer til denne udfordring, men jeg er ikke sikker på, at den nuværende generation af regulatorer er klar til den slags gennemgribende ændringer, der ville være nødvendige for at gøre det godt. Det ville indebære indskrænkning af magtfulde virksomheder (muligvis alle børsnoterede virksomheder), begrænsning af AI's brug i ledelsen og ville betyde enorme ændringer i den måde, forbrugermarkederne fungerer på i øjeblikket. Grundlæggende ville vi være nødt til at omkoble samfundet. Det ville føre os ind i vækst et par årtier tidligere, end vi kunne ønske os. Gennemsigtighedsudfordringen omkring AI kan være mere formidabel end kontrolvariablerne, som alle virker så bekymrede over, selvfølgelig ikke at de ikke er relaterede.

Desuden kan vi ikke være lige bekymrede, hver gang et AI-benchmark nås. Vi er nødt til at spare på vores energi til virkelig store øjeblikke med cascading risiko. De vil komme, og retfærdigvis er vi ikke forberedte. Mine forudsete fremtidsscenarier (se Udryddelsesscenarier for 2075) inkluderer massive databrud, der holder hele lande låst ude af deres egne processer i flere måneder. Jeg bekymrer mig også om AI'er, der bliver hjulpet på vej af kriminelle grupper eller statslige aktører. Mest af alt bekymrer jeg mig om kombinationer af kunstig intelligens, nanoteknologi, syntetisk biologi og kvanteteknologi – næsten usynlig kvasi-organisk intelligens med ukendt kapacitet, måske kun et par årtier væk, der sker netop når verden vil blive opslugt af klimaets kaskadevirkninger. lave om.

Nuværende AI-modeller fungerer endnu ikke tilstrækkeligt godt til at være en trussel mod menneskeheden. Før vi kan overveje at lukke dem ned, har vi brug for bedre AI'er. Mere end det har vi brug for klogere udviklere, mere sensibiliserede borgere og bedre informerede politiske beslutningstagere. Vi har også brug for et koncept for HVORDAN man kan regulere AI. Men dette kan gøres uden at bremse noget. Det bliver en lærerig rejse for alle. Moratoriebrevet vedrørende GPT 4 (2023) er et råb-ulve-øjeblik med kun en svag lighed med de kaskaderisici, menneskeheden står over for i de kommende årtier. At sætte AI-risiko på niveau med pandemisk risiko og nuklear risiko i 2023 er for tidligt. Kommer vi derhen? Måske. Men grædende ulv har konsekvenser. Det suger ilten ud af kommende debatter om reelle forskrækkelser.

Kilde: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/