AI-eksperter underskriver dokument, der sammenligner risikoen for 'udslettelse fra AI' med pandemier, atomkrig

Snesevis af kunstig intelligens (AI)-eksperter, herunder CEO'erne for OpenAI, Google DeepMind og Anthropic, underskrev for nylig en åben erklæring udgivet af Center for AI Safety (CAIS). 

Udsagnet indeholder en enkelt sætning:

"At mindske risikoen for udryddelse fra AI bør være en global prioritet sammen med andre samfundsmæssige risici såsom pandemier og atomkrig."

Blandt dokumentets underskrivere er en veritabel "hvem er hvem" af AI-armaturer, inklusive "Gudfaderen" for AI, Geoffrey Hinton; University of California, Berkeleys Stuart Russell; og Massachusetts Institute of Technologys Lex Fridman. Musikeren Grimes er også underskriver, opført under kategorien "andre bemærkelsesværdige figurer".

Relateret: Musikeren Grimes er villig til at 'dele 50 % royalties' med AI-genereret musik

Selvom udtalelsen kan virke harmløs på overfladen, er den underliggende besked noget kontroversiel i AI-samfundet.

Et tilsyneladende voksende antal eksperter mener, at nuværende teknologier kan eller uundgåeligt vil føre til fremkomsten eller udviklingen af ​​et AI-system, der er i stand til at udgøre en eksistentiel trussel mod den menneskelige art.

Deres synspunkter bliver imidlertid imødegået af et kontingent af eksperter med diametralt modsatte meninger. Meta-chef AI-forsker Yann LeCun har for eksempel ved adskillige lejligheder bemærket, at han ikke nødvendigvis tror på, at AI vil blive ukontrollerbar.

For ham og andre, der er uenige i "udryddelses"-retorikken, såsom Andrew Ng, medstifter af Google Brain og tidligere chefforsker ved Baidu, er AI ikke problemet, det er svaret.

På den anden side af argumentet mener eksperter som Hinton og Conjecture CEO Connor Leahy, at AI på menneskeligt niveau er uundgåelig, og som sådan er tiden til at handle nu.

Det er dog uklart, hvilke handlinger erklæringens underskrivere kræver. De administrerende direktører og/eller ledere af AI for næsten alle større AI-virksomheder, såvel som anerkendte videnskabsmænd fra hele den akademiske verden, er blandt dem, der har skrevet under, hvilket gør det klart, at hensigten ikke er at stoppe udviklingen af ​​disse potentielt farlige systemer.

Tidligere på måneden mødte OpenAI CEO Sam Altman, en af ​​ovennævnte erklærings underskrivere, sin første optræden for Kongressen under en Senat-høring for at diskutere AI-regulering. Hans vidnesbyrd skabte overskrifter, efter at han brugte størstedelen af ​​det på at opfordre lovgivere til at regulere hans branche.

Altman's Worldcoin, et projekt, der kombinerer kryptovaluta og proof-of-personhood, har også for nylig rundet medierne efter at have rejst $115 millioner i Serie C-finansiering, hvilket bringer dens samlede finansiering efter tre runder til $240 millioner.

Kilde: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war