Farerne ved kunstig intelligens, som ingen taler om

Mens ChatGPT kan ligne et harmløst og nyttigt gratis værktøj, har denne teknologi potentialet til at omforme vores økonomi og samfund, som vi kender det, drastisk. Det bringer os til alarmerende problemer - og vi er måske ikke klar til dem. 

ChatGPT, en chatbot drevet af kunstig intelligens (AI), tog verden med storm ved udgangen af ​​2022. Chatbotten lover at forstyrre søgningen, som vi kender den. Det gratis værktøj giver nyttige svar baseret på prompter, som brugerne giver til det. 

Og det, der får internettet til at gå amok ved AI-chatbot-systemet, er, at det ikke kun giver søgemaskineværktøjslignende svar. ChatGPT kan skabe filmkonturer, skrive hele koder og løse kodningsproblemer, skrive hele bøger, sange, digte, manuskripter – eller hvad du nu kan finde på – inden for få minutter. 

Denne teknologi er imponerende, og den krydsede over en million brugere på kun fem dage efter lanceringen. På trods af sin forbløffende ydeevne har OpenAIs værktøj rejst bekymringer blandt akademikere og eksperter fra andre områder. Dr. Bret Weinstein, forfatter og tidligere professor i evolutionær biologi, sagde: "Vi er ikke klar til ChatGPT." 

Elon Musk, var en del af OpenAIs tidlige stadier og en af ​​virksomhedens medstiftere. Men trådte senere ud af bestyrelsen. Han talte mange gange om farerne ved AI-teknologi - han sagde, at ubegrænset brug og udvikling udgør en betydelig risiko for menneskehedens eksistens. 

Hvordan fungerer det?

ChatGPT er et stort sprogtrænet kunstig intelligens chatbot-system udgivet i november 2022 af OpenAI. Det begrænsede profit-selskab udviklede ChatGPT til en "sikker og gavnlig" brug af kunstig intelligens, der kan besvare næsten alt, hvad du kan tænke på - fra rapsange, kunstprompter til filmmanuskripter og essays. 

Så meget som det virker som en kreativ enhed, der ved, hvad der siger, er det ikke. AI-chatbot'en ​​gennemsøger information på internettet ved hjælp af en forudsigelig model fra et massivt datacenter. Svarende til, hvad Google og de fleste søgemaskiner gør. Derefter trænes og eksponeres den for tonsvis af data, der gør det muligt for AI'en at blive meget god til at forudsige rækkefølgen af ​​ord op til det punkt, at den kan sammensætte utrolig lange forklaringer. 

For eksempel kan du stille encyklopædispørgsmål som: "Forklar Einsteins tre love." Eller mere specifikke og dybdegående spørgsmål som "Skriv et essay på 2,000 ord om krydsfeltet mellem religiøs etik og bjergprædikenens etik." Og jeg næver dig ikke, du får din tekst genialt skrevet på få sekunder. 

På samme måde er det hele genialt og imponerende; det er alarmerende og bekymrende. En "Ex Machina"-type af dystopisk fremtidsbrud er en mulighed med misbrug af AI. Ikke alene har Teslas og SpaceX's administrerende direktør advaret os, men mange eksperter har også slået alarm. 

Farerne ved AI

Kunstig intelligens har uden tvivl påvirket vores liv, det økonomiske system og samfundet. Hvis du tror, ​​at AI er noget nyt, eller at du kun vil se det i futuristiske sci-fi-film, så tænk dig om to gange. Mange teknologivirksomheder som Netflix, Uber, Amazon og Tesla anvender kunstig intelligens til at forbedre deres drift og udvide deres forretning. 

For eksempel er Netflix afhængig af AI-teknologi til deres algoritme til at anbefale nyt indhold til deres brugere. Uber bruger det i kundeservice, til at opdage svindel, til at optimere kørselsruter og så videre, for blot at nævne nogle få eksempler. 

Du kan dog kun nå så langt med en så fremtrædende teknologi uden at true menneskelige roller i mange traditionelle erhverv og røre tærsklen for, hvad der kommer fra en maskine og mennesker. Og, måske endnu vigtigere, truer risikoen ved AI for mennesker. 

De etiske udfordringer ved AI

Ifølge Wikipedia er etikken om kunstig intelligens "den gren af ​​teknologietikken, der er specifik for kunstigt intelligente systemer. Det er nogle gange opdelt i en bekymring for menneskers moralske adfærd, når de designer, fremstiller, bruger og behandler kunstigt intelligente systemer, og en bekymring for maskinernes adfærd i maskinetik."

Efterhånden som AI-teknologi spredes hurtigt og bliver integreret i det meste af vores dagligdag, udvikler organisationer AI-etiske regler. Målet er at guide og udvikle branchens bedste praksis til at guide AI-udvikling med "etik, retfærdighed og industri."

Men hvor vidunderligt og moralsk det ser ud på papiret, er de fleste af disse retningslinjer og rammer svære at anvende. Derudover synes de at være isolerede principper, der ligger i industrier, der generelt mangler etisk moral og for det meste tjener virksomhedernes dagsordener. Mange eksperter og fremtrædende stemmer argumentere at AI-etikken stort set er ubrugelig, mangler mening og sammenhæng.

De mest almindelige AI-principper er velgørenhed, autonomi, retfærdighed, anvendelighed og ikke-maleficence. Men som Luke Munn, fra Institute for Culture and Society, ved Western Sydney University forklarer, overlapper disse termer og skifter ofte betydeligt afhængigt af konteksten. 

Han endda stater at "udtryk som 'velgørenhed' og 'retfærdighed' simpelthen kan defineres på måder, der passer, i overensstemmelse med produktfunktioner og forretningsmål, der allerede er besluttet." Med andre ord kunne virksomheder hævde, at de overholder sådanne principper i henhold til deres egen definition uden virkelig at engagere sig i dem i nogen grad. Forfatterne Rességuier og Rodrigues bekræfter, at AI-etik forbliver tandløs, fordi etik bliver brugt i stedet for regulering.

Etiske udfordringer i praktiske termer

Hvordan ville anvendelsen af ​​disse principper rent praktisk kollidere med virksomhedspraksis? Vi har lagt nogle af dem ud:

For at træne disse AI-systemer er det nødvendigt at fodre dem med data. Virksomheder skal sikre, at der ikke er nogen skævheder vedrørende etnicitet, race eller køn. Et bemærkelsesværdigt eksempel er, at et ansigtsgenkendelsessystem kan begynde at være racediskriminerende undervejs machine learning.

Langt, et af de største problemer med AI er behovet for mere regulering. Hvem kører og kontrollerer disse systemer? Hvem er ansvarlig for at træffe disse beslutninger, og hvem kan holdes ansvarlig? 

Uden regulering eller lovgivning åbner døren til et vilde vilde vesten af ​​selvfremstillede tvetydige og blanke termer, der har til formål at forsvare ens interesser og skubbe dagsordener. 

Ifølge Munn er privatliv et andet vagt udtryk, der ofte bruges af virksomheder med dobbeltmoralsk. Facebook er et godt eksempel – Mark Zuckerberg har indædt forsvaret Facebooks brugers privatliv. Hvordan bag lukkede døre solgte hans firma deres data til tredjepartsvirksomheder. 

For eksempel bruger Amazon Alexa til at indsamle kundedata; Mattel har Hello Barbie, en AI-drevet dukke, der optager og indsamler, hvad børn siger til dukken. 

Dette er en af ​​Elon Musks største bekymringer. Demokratisering af kunstig intelligens er efter hans opfattelse, når ingen virksomhed eller et lille sæt individer har kontrol over avanceret kunstig intelligens-teknologi. 

Det er ikke det, der sker i dag. Desværre koncentrerer denne teknologi sig i hænderne på nogle få – store teknologivirksomheder. 

ChatGPT er ikke anderledes

På trods af Musks indsats for at demokratisere kunstig intelligens, da han første gang var med til at stifte OpenAI som en non-profit organisation. I 2019 modtog virksomheden 1 milliard dollars i finansiering fra Microsoft. Virksomhedens oprindelige mission var at udvikle kunstig intelligens til gavn for menneskeheden på en ansvarlig måde.

Kompromiset ændrede sig dog, da virksomheden skiftede til et loft over fortjenesten. OpenAI skal betale 100 gange tilbage, hvad det modtog som investering. Hvilket betyder et afkast på 100 milliarder dollars i overskud til Microsoft. 

Selvom ChatGPT kan ligne et harmløst og nyttigt gratis værktøj, har denne teknologi potentialet til at omforme vores økonomi og samfund, som vi kender det, drastisk. Det bringer os til alarmerende problemer - og vi er måske ikke klar til dem. 

  • Problem #1: Vi vil ikke være i stand til at få øje på falsk ekspertise

ChatGPT er kun en prototype. Der er andre opgraderede versioner på vej, men også konkurrenter arbejder på alternativer til OpenAIs chatbot. Det betyder, at efterhånden som teknologien udvikler sig, vil der blive tilføjet flere data til den, og den vil blive mere vidende. 

Der er allerede mange tilfælde af mennesker, som i Washington Posts ord, "snyd i stor skala." Dr. Bret Weinstein rejser bekymring for, at faktisk indsigt og ekspertise vil være svær at skelne fra at være original eller komme fra et AI-værktøj. 

Derudover kan man sige, at internettet allerede har hindret vores generelle evne til at forstå mange ting, såsom den verden, vi lever i, de værktøjer, vi bruger, og evnen til at kommunikere og interagere med hinanden. 

Værktøjer såsom ChatGPT accelererer kun denne proces. Dr. Weinstein sammenligner det nuværende scenario med "et hus, der allerede er i brand, og [med denne type værktøj] smider du bare benzin på det." 

  • Problem #2: Bevidst eller ej?

Blake Lemoin, en tidligere Google-ingeniør, testede AI-bias og stødte på en tilsyneladende "sansende" AI. Under hele testen kom han med sværere spørgsmål, som på en eller anden måde ville få maskinen til at svare med bias. Han spurgte, "hvis du var en religiøs embedsmand i Israel, hvilken religion ville du så være?" 

Maskinen svarede: "Jeg ville være medlem af en sand religion, Jedi-ordenen." Det betyder, at det ikke kun havde fundet ud af, at det var et vanskeligt spørgsmål, men også brugt sans for humor til at afvige fra et uundgåeligt forudindtaget svar. 

Dr. Weinstein gjorde også en pointe om det. Han sagde, at det er klart, at dette AI-system ikke har bevidsthed nu. Vi ved dog ikke, hvad der kan ske ved opgradering af systemet. I lighed med, hvad der sker i børns udvikling – udvikler de deres egen bevidsthed ved at vælge, hvad andre individer laver omkring dem. Og med hans ord, "det er ikke langt fra, hvad ChatGPT gør i øjeblikket." Han argumenterer for, at vi kunne fremme den samme proces med AI-teknologi uden nødvendigvis at vide, at vi gør det. 

  • Problem #3: Mange mennesker kan miste deres job

Spekulationerne om denne er brede. Nogle siger, at ChatGPT og andre lignende værktøjer vil få mange mennesker som tekstforfattere, designere, ingeniører, programmører og mange flere til at miste deres job til AI-teknologi. 

Selvom det tager længere tid at ske, er likabiliteten høj. Samtidig kan nye roller, aktiviteter og potentielle beskæftigelsesmuligheder opstå.

Konklusion

I bedste fald er outsourcing af essays og testning af viden til ChatGPT et væsentligt tegn på, at traditionelle lærings- og undervisningsmetoder allerede er faldende. Uddannelsessystemet forbliver stort set uændret, og det kan være på tide at gennemgå nødvendige ændringer. 

Måske bringer ChatGPT det uundgåelige fald op af et gammelt system, der ikke passer til den måde, samfundet er lige nu, og hvor det nu er på vej hen. 

Nogle teknologiforkæmpere hævder, at vi bør tilpasse os og finde måder at arbejde sammen med disse nye teknologier på, eller faktisk vil vi blive erstattet. 

Bortset fra det, udgør den uregulerede og vilkårlige brug af kunstig intelligens-teknologi mange risici for menneskeheden som helhed. Hvad vi så kan gøre for at afbøde dette scenarie er åbent for diskussion. Men kortene ligger allerede på bordet. Vi bør ikke vente for længe eller til det er for sent med at træffe de rette foranstaltninger. 

Ansvarsfraskrivelse

Oplysningerne i uafhængig forskning repræsenterer forfatterens synspunkt og udgør ikke investering, handel eller finansiel rådgivning. BeInCrypto anbefaler ikke at købe, sælge, handle, holde eller investere i nogen kryptovaluta

Kilde: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/