Snesevis af kunstig intelligens (AI)-eksperter, herunder CEO'erne for OpenAI, Google DeepMind og Anthropic, underskrev for nylig en åben erklæring udgivet af Center for AI Safety (CAIS).
Vi har lige udsendt en erklæring:
"At mindske risikoen for udryddelse fra AI bør være en global prioritet sammen med andre samfundsmæssige risici såsom pandemier og atomkrig."
Underskrivere inkluderer Hinton, Bengio, Altman, Hassabis, Song osv. https://t.co/N9f6hs4bpa
(1 / 6)
— Dan Hendrycks (@DanHendrycks) Maj 30, 2023
Udsagnet indeholder en enkelt sætning:
"At mindske risikoen for udryddelse fra AI bør være en global prioritet sammen med andre samfundsmæssige risici såsom pandemier og atomkrig."
Blandt dokumentets underskrivere er en veritabel "hvem er hvem" af AI-armaturer, inklusive "Gudfaderen" for AI, Geoffrey Hinton; University of California, Berkeleys Stuart Russell; og Massachusetts Institute of Technologys Lex Fridman. Musikeren Grimes er også underskriver, opført under kategorien "andre bemærkelsesværdige figurer".
Relateret: Musikeren Grimes er villig til at 'dele 50 % royalties' med AI-genereret musik
Selvom udtalelsen kan virke harmløs på overfladen, er den underliggende besked noget kontroversiel i AI-samfundet.
Et tilsyneladende voksende antal eksperter mener, at nuværende teknologier kan eller uundgåeligt vil føre til fremkomsten eller udviklingen af et AI-system, der er i stand til at udgøre en eksistentiel trussel mod den menneskelige art.
Deres synspunkter bliver imidlertid imødegået af et kontingent af eksperter med diametralt modsatte meninger. Meta-chef AI-forsker Yann LeCun har for eksempel ved adskillige lejligheder bemærket, at han ikke nødvendigvis tror på, at AI vil blive ukontrollerbar.
Supermenneskelig AI er ikke i nærheden af toppen af listen over eksistentielle risici.
I høj grad fordi den ikke eksisterer endnu.Indtil vi har et grundlæggende design til selv AI på hundeniveau (endsige menneskeligt niveau), er det for tidligt at diskutere, hvordan man gør det sikkert. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) Maj 30, 2023
For ham og andre, der er uenige i "udryddelses"-retorikken, såsom Andrew Ng, medstifter af Google Brain og tidligere chefforsker ved Baidu, er AI ikke problemet, det er svaret.
På den anden side af argumentet mener eksperter som Hinton og Conjecture CEO Connor Leahy, at AI på menneskeligt niveau er uundgåelig, og som sådan er tiden til at handle nu.
Ledere af alle større AI-laboratorier underskrev dette brev, der udtrykkeligt anerkendte risikoen for udryddelse fra AGI.
Et utroligt skridt fremad, tillykke til Dan for hans utrolige arbejde med at sætte dette sammen og tak til alle underskrivere for at gøre deres del for en bedre fremtid! https://t.co/KDkqWvdJcH
— Connor Leahy (@NPCollapse) Maj 30, 2023
Det er dog uklart, hvilke handlinger erklæringens underskrivere kræver. De administrerende direktører og/eller ledere af AI for næsten alle større AI-virksomheder, såvel som anerkendte videnskabsmænd fra hele den akademiske verden, er blandt dem, der har skrevet under, hvilket gør det klart, at hensigten ikke er at stoppe udviklingen af disse potentielt farlige systemer.
Tidligere på måneden mødte OpenAI CEO Sam Altman, en af ovennævnte erklærings underskrivere, sin første optræden for Kongressen under en Senat-høring for at diskutere AI-regulering. Hans vidnesbyrd skabte overskrifter, efter at han brugte størstedelen af det på at opfordre lovgivere til at regulere hans branche.
Altman's Worldcoin, et projekt, der kombinerer kryptovaluta og proof-of-personhood, har også for nylig rundet medierne efter at have rejst $115 millioner i Serie C-finansiering, hvilket bringer dens samlede finansiering efter tre runder til $240 millioner.
Kilde: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war