AI-etik og AI-induceret psykologisk podning for at hjælpe mennesker med desinformation

Hvad skal vi gøre ved den massive overflod af desinformation og misinformation?

Det hele bliver beviseligt værre og værre, for hver dag der går.

Måske kan kunstig intelligens (AI) komme os til undsætning. Ja, det er rigtigt, vi kan måske udnytte de gavnlige anvendelser af AI til at klare vores ubarmhjertige tsunami af desinformation og misinformation. Vi kan gøre klogt i at prøve at gøre det. Enhver vej til potentielle løsninger synes værdig til at forfølge.

Som en sidebemærkning vil jeg gerne straks erkende og bemærke, at AI utvivlsomt vil også også være en del af problemet. Der er ingen tvivl om, at mennesker let kan udnytte AI til at generere desinformation og misinformation. Ydermere kan AI snigende bruges til at få desinformation og misinformation til at virke forbløffende gyldig og narre mennesker til at tro, at den præsenterede information er tillokkende nøjagtig og faktuel. En decideret trist ansigtsside af, hvad AI bringer til bordet. Vi vil vende tilbage til denne nedadrettede gåde mod slutningen af ​​denne diskussion.

Lad os indtil videre tage vores smileys på og udforske, hvordan kunstig intelligens er gavnlig til at bringe desinformation og misinformation til sine mægtige knæ. En vigtig understrøm vil være, at alt dette hænger sammen med vitale elementer af AI-etik. Min klummedækning af AI Etik og Etisk AI er løbende og omfattende, bl.a linket her , linket her, For blot at nævne nogle få.

Overvej disse hjørnestens måder, hvorpå AI kan være en særlig nyttig allieret i krigen mod desinformation og misinformation:

  • Stop ved start: AI kan bruges til at opdage og forsøge at fjerne desinformation og misinformation, før den bliver løs
  • Filtrer før set: AI kan bruges til at filtrere desinformation og misinformation, så du ikke behøver at bekymre dig om at se den
  • Forbered dig på at være immun: AI kan bruges til at styrke din parathed og evne til at kæmpe med desinformation og misinformation (kendt noget formelt som at give en slags psykologisk inokulation)
  • Andet

Det første listede punkt indebærer forsøg på at stoppe desinformation og misinformation på det tidligst mulige tidspunkt, før indholdet kommer til verden.

Dette er en meget problematisk tilgang. Nogle vil højrøstet hævde, at dette kan være et Big Brother-forsøg på at undertrykke ytringsfriheden. Hvor langt ville denne AI være i stand til at gå? Kunne det forhindre folk i frit at udtrykke deres synspunkter? Dette uhyggeligt kunne blive en glidebane af kunstig intelligens, der i sidste ende bliver det værste mareridt af onde resultater, der uskyldigt startede med de bedste intentioner.

Jeg er sikker på du får billedet.

Det andet punkt er lidt mere moderat og antyder, at vi kunne bruge AI til at filtrere indhold for os.

Du har muligvis en AI-filterbot, der scanner alle dine indgående datafeeds fra forskellige nyheder og andre kilder. AI'en er skræddersyet til at fange enhver desinformation eller misinformation, der passer til dine personlige kriterier. I et sådant scenarie er det således ikke en Big Brother-censursituation. Du styrer AI, og hvordan den filtrerer din veritable indbakke med information på dine vegne.

Lyder ret godt.

Der er dog nogle bemærkelsesværdige bekymringer.

For eksempel er vi allerede meget polariseret i vores synspunkter, og denne brug af kunstig intelligens kan gøre denne polarisering dybere og mørkere. Forestil dig, at med denne smarte AI, der fungerer nonstop 24×7, behøver du aldrig nogensinde at se en smule information, som du har klassificeret som potentielt desinformation og misinformation. Dit polariserede perspektiv er nu næsten garanteret at forblive intakt. Hele dagen lang, og når som helst du søger at se på den information, der afventer din opmærksomhed, er den altid fuldt forudvalgt, og der er ingen chance for at se på såkaldt desinformation og misinformation.

Jeg siger, at desinformation og misinformation kan være såkaldte fordi der er en enorm uenighed om, hvad der egentlig er desinformation og misinformation. Nogle eksperter insisterer på, at der er et absolut grundlag for at fastslå, hvad der er desinformation, og hvad der er misinformation. Der er rigtigt og forkert. Alt kan beregnes uden at fejle, at noget enten er desinformation eller misinformation.

Ikke alle ser tingene som værende helt så klare.

Den ordsprogede on-eller-off gensidigt udelukkende dikotomi-kontrast siges at være en misvisende sindsstemning. En persons desinformation betragtes muligvis ikke som desinformation til en anden person. Ligeledes om misinformation. Påstanden er, at desinformation og misinformation varierer med hensyn til natur og størrelse. At forsøge at klassificere al information endeligt i den ene eller den anden bunke er meget sværere, end at vifte med hånden.

Essensen er, at det andet punkt om at bruge AI som en filtreringsmekanisme har sine afvejninger. Der er ingen tvivl om, at AI i stigende grad vil blive brugt til denne brug. Samtidig skal vi være opmærksomme på de udfordringer, som sådan AI kommer til at bringe i forgrunden. AI som et filter for desinformation og misinformation er ikke en sølvkugle eller slam dunk.

Det fører os til det tredje punkt, nemlig muligheden for at bruge AI til at gøre mennesker bedre til at håndtere desinformation og misinformation.

Jeg tvivler på, at du sikkert har hørt meget om denne tredje måde at bruge AI i denne sammenhæng. Det er lige begyndt at dukke op. Du er nu på forkant med noget, der sandsynligvis vil vokse og gradvist blive taget i brug. Vær dog opmærksom på, at efterhånden som denne popularitet udvides, vil kontroversen om, hvorvidt det er en passende tilgang, også blive meget synlig.

En del af problemet er, at AI i nogen grad bliver brugt til det, som nogle på en nedsættende måde ville referere til som spille tankespil med mennesker.

Det virker ildevarslende.

Dette bringer os også til AI-etikkens område.

Alt dette relaterer sig også til nøgternt opståede bekymringer om nutidens AI og især brugen af ​​Machine Learning og Deep Learning som en form for teknologi, og hvordan den bliver brugt. Ser du, der er anvendelser af ML/DL, der har en tendens til at involvere, at AI'en bliver menneskeskabt af offentligheden som helhed, idet den tror eller vælger at antage, at ML/DL enten er sansende AI eller er tæt på (det er det ikke). Derudover kan ML/DL indeholde aspekter af computational pattern matching, som er uønskede eller direkte upassende eller ulovlige ud fra etiske eller juridiske perspektiver.

Det kan være nyttigt først at præcisere, hvad jeg mener, når jeg refererer til AI generelt og også give et kort overblik over Machine Learning og Deep Learning. Der er stor forvirring om, hvad kunstig intelligens betyder. Jeg vil også gerne introducere AI-etikkens forskrifter for dig, som især vil være integreret i resten af ​​denne diskurs.

Oplysning om AI

Lad os sikre os, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende.

Det har vi ikke.

Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som The Singularity, se min dækning på linket her).

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på niveau med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af kunstig intelligens har gjort omfattende brug af Machine Learning og Deep Learning, som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et udseende af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

En del af problemet er vores tendens til at antropomorfe computere og især AI. Når et computersystem eller AI ser ud til at handle på måder, som vi forbinder med menneskelig adfærd, er der en næsten overvældende trang til at tilskrive menneskelige kvaliteter til systemet. Det er en almindelig mental fælde, der kan gribe fat i selv den mest uforsonlige skeptiker over chancerne for at nå sansning.

Til en vis grad er det derfor, AI-etik og etisk AI er så afgørende et emne.

AI-etikkens forskrifter får os til at forblive på vagt. AI-teknologer kan til tider blive optaget af teknologi, især optimering af højteknologi. De overvejer ikke nødvendigvis de større samfundsmæssige konsekvenser. At have en AI-etik-tankegang og gøre det integreret i AI-udvikling og -felting er afgørende for at producere passende AI, herunder vurderingen af, hvordan AI-etik bliver adopteret af virksomheder.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. De advarer om, at hvis vi vedtager nogle af disse AI-love, vil vi dræbe den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele. Se fx min dækning på linket her.

I tidligere spalter har jeg dækket de forskellige nationale og internationale bestræbelser på at udarbejde og vedtage love, der regulerer AI, se linket her, for eksempel. Jeg har også dækket de forskellige AI-etiske principper og retningslinjer, som forskellige nationer har identificeret og vedtaget, herunder f.eks. FN-indsatsen såsom UNESCO-sættet af AI-etik, som næsten 200 lande har vedtaget, se linket her.

Her er en nyttig keystone-liste over etiske AI-kriterier eller karakteristika vedrørende AI-systemer, som jeg tidligere har udforsket nøje:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Disse AI-etiske principper formodes oprigtigt at blive brugt af AI-udviklere, sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer. Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt de AI-etiske begreber. Som tidligere understreget heri, kræver det en landsby at udtænke og udforme AI, og som hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Lad os holde tingene nede på jorden og fokusere på nutidens beregningsmæssige ikke-sansende AI.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende tests, vil der stadig være skævheder indlejret i mønstermatchningsmodellerne for ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Jeg mener, at jeg nu har sat scenen for tilstrækkeligt at diskutere AI's rolle som et middel til at fremskynde psykologisk inokulering i forbindelse med håndtering af desinformation og misinformation.

At komme ind i menneskers sind

Lad os starte med det grundlæggende eller grundlæggende, der ligger til grund for misinformation og desinformation.

Generelt refererer misinformation til falsk eller vildledende information.

Desinformation er nogenlunde den samme, selvom den består af det tilføjede element af hensigt. Vi opfatter normalt information som værende desinformation, når det er informationen beregnet at fejlinformere.

Jeg vil måske fortælle dig, at klokken i øjeblikket er 10 om natten, hvilket lad os sige er falsk, fordi klokken virkelig er midnat. Hvis jeg havde fortalt dig klokken 10 som en anelse og ikke prøvede at bedrage, ville vi normalt sige, at jeg havde misinformeret dig. Jeg havde formidlet misinformation. Måske var jeg doven, eller måske troede jeg virkelig på, at klokken var 10. På den anden side, hvis jeg havde nævnt klokken 10, fordi jeg med vilje ville narre dig til at tro, at klokken var klokken 10, og at jeg vidste, at klokken faktisk var midnat, kunne dette siges at være en form for desinformation .

Et bemærkelsesværdigt aspekt af information overordnet er, at vi typisk er i stand til at sprede information omkring information og dermed kan information blive noget udbredt. Information kan sandelig flyde som vand i bred forstand.

Jeg siger dig, at klokken er 10 om natten. Du har nu den særlige information. Du råber måske højt til en gruppe mennesker i nærheden, at klokken er 10 om natten. De har nu også den samme information. Måske kommer nogle af de mennesker ind på deres mobiltelefoner og ringer til andre for at fortælle dem, at klokken er 10. Alt i alt kan information spredes eller deles og nogle gange gøres det så hurtigt, mens det i andre tilfælde gøres så langsomt.

På en måde kan du hævde, at information kan gå viralt.

Der er et opfundet ord eller en terminologi, som du måske ikke specielt har set eller brugt, som hjælper med at beskrive dette fænomen med information, der går viralt, ordet er infodemisk. Dette ord er en mashup af både information og at være en epidemi. I det store og hele er en infodemi forbundet med omstændigheder, der involverer spredning af misinformation eller desinformation. Forestillingen er, at falsk eller vildledende information kan gå viralt, uønsket, svarende til uønsket spredning af sygdom eller sygdomme.

I eksemplet om klokken 10 om natten var denne tilsyneladende kendsgerning et stykke information, der blev spredt til den nærliggende gruppe mennesker. De spreder til gengæld kendsgerningen til andre. Hvis klokken 10 var falsk, blev dette særlige tilfælde af desinformation eller misinformation spredt til mange andre. De ved måske ikke, at oplysningerne var misinformation eller muligvis desinformation.

Jeg stoler på, at alle disse definitioner og grundlæggende principper virker fornuftige, og at du er ombord indtil videre.

Godt, lad os fortsætte.

Jeg har ført dig lidt i det skjulte ind i noget, der fylder en hel del fascination og også angst. Essensen er, at der uden tvivl er rimelige paralleller mellem, hvad sygdomme gør viralt, og hvad misinformation eller desinformation gør viralt.

Ikke alle er enige i disse påståede paralleller. Ikke desto mindre er de spændende og værd at overveje.

Tillad mig at uddybe.

Ser du, vi kan forsøge at udnytte den praktiske analogi med at henvise til menneskebårne sygdomme og sygdomme, der spredes, og gøre det for at sammenligne en lignende mulighed med spredningen af ​​misinformation og desinformation. For at forsøge at stoppe spredningen af ​​sygdomme kan vi sigte mod tidligt at opdage og søge at begrænse en ny sygdomskilde, der peger på den potentielle spredning af lidelsen. En anden tilgang til at håndtere en spredning af sygdom ville være at beskytte sig mod at få den ved forsigtig brug af at bære en maske eller beskyttelsesudstyr. En tredje tilgang kunne bestå i at tage vaccinationer for at forsøge at opbygge din immunitet relateret til sygdommen.

Vi er nu kommet fuld cirkel, idet de samme tilgange til at håndtere sygdomme eksplicit kan sammenlignes med at håndtere misinformation og desinformation. Jeg nævnte tidligere, at der er lignende bestræbelser i gang for at anvende kunstig intelligens med det formål at forsøge at håndtere desinformation og misinformation, især (som tidligere nævnt):

  • Stop ved start: AI kan bruges til at opdage og forsøge at fjerne desinformation og misinformation, før den bliver løs
  • Filtrer før set: AI kan bruges til at filtrere desinformation og misinformation, så du ikke behøver at bekymre dig om at se den
  • Forbered dig på at være immun: AI kan bruges til at styrke din parathed og evne til at kæmpe med desinformation og misinformation (kendt noget formelt som at give en slags psykologisk inokulation)
  • Andet

Det tredje aspekt vil være af største interesse her.

Her er aftalen.

Vi ved, at sygdomme normalt rammer menneskelige legeme. Med analogien af, hvordan misinformation og desinformation opstår, kunne vi foreslå, at dårlig information rammer menneskeligt sind. Ja, du kan formentlig komme i kontakt med desinformation eller misinformation, der strømmer ind i dit sind. Desinformationen eller misinformationen korrumperer eller forgifter potentielt din måde at tænke på.

En menneskekrop kan vaccineres for at forsøge at forberede sig på at komme i kontakt med sygdomme. Et stort spørgsmål rejser sig om, hvorvidt vi kan gøre det samme for det menneskelige sind. Er det muligt at prøve at inokulere sindet, så når desinformation eller misinformation kommer til dit sind, at du er klar til det og er blevet podet i overensstemmelse hermed?

Et studieområde kendt som psykologisk podning hævder, at sindet faktisk kan inokuleres i den forstand, at det er parat til at håndtere misinformation eller desinformation.

Overvej denne beskrivelse i en nylig forskningsundersøgelse vedrørende psykologisk inokulering og hvad der nogle gange betegnes som at gøre prebunking:

  • "Afsløring af misinformation er også problematisk, fordi korrektion af misinformation ikke altid ophæver dens virkninger fuldstændigt, et fænomen kendt som den fortsatte indflydelseseffekt. I modsætning til debunking har prebunking derfor vundet fremtrædende plads som et middel til forebyggende at opbygge modstandskraft mod forventet eksponering for misinformation. Denne tilgang er normalt baseret på inokuleringsteori. Podningsteorien følger en medicinsk immuniseringsanalogi og hævder, at det er muligt at opbygge psykologisk modstand mod uønskede overtalelsesforsøg, ligesom medicinske inokulationer opbygger fysiologisk modstand mod patogener" (Science Forskud24. august 2022, "Psykologisk inokulering forbedrer modstandskraften mod misinformation på sociale medier" af medforfatterne Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje og Stephan Lewandowsky).

For at vende tilbage til mit eksempel om, at klokken er 10 om natten, antag, at jeg tidligere havde fortalt dig, at nogle gange er det påståede tidspunkt ikke det faktiske tidspunkt. Du har fremover en form for podning for at være på vagt over for hævdede tider. Denne podning har forberedt dig til at komme i kontakt med påståede tidspunkter, der er desinformation eller misinformation.

Hvis jeg havde advaret dig for flere år siden om, at påståede tider ikke var faktiske tider, er der en chance for, at du måske ikke tænker på den for længe siden advarsel. Således er den tidligere podning (skal vi sige) slidt af. Min podning til dig skal muligvis boostes.

Der er også en chance for, at podningen ikke var specifik nok til, at du kunne bruge den, når det var nødvendigt. Hvis jeg for år tilbage havde advaret dig om påståede tider kontra faktiske tider, kunne det være for bredt. Podningen virker muligvis ikke i det specifikke tilfælde, hvor du bliver fortalt omkring klokken 10. I den forstand burde min podning måske have været, at man skulle være på vagt, når en påstået tid på klokken 10 bruges. Selvfølgelig er podninger i tilfælde af sygdomme noget de samme, til tider meget specifikke for kendte lidelser, mens de i andre tilfælde er et bredt spektrum.

En ofte citeret forskningsundersøgelse udført i 1961 om psykologisk inokulering af William McGuire fra Columbia University betragtes nu generelt som en klassiker inden for dette studiefelt. Du kan måske være interesseret i disse nøglepunkter, han gjorde på det tidspunkt:

  • "En sådan generaliseret immunisering kan stamme fra en af ​​to mekanismer. Præ-eksponering kan chokere personen til at indse, at de "truismer", han altid har accepteret, faktisk er sårbare, og dermed provokere ham til at udvikle et forsvar for sin tro, med det resultat, at han er mere modstandsdygtig over for de stærke modargumenter, når de kommer. Alternativt kan tilbagevisningerne involveret i præeksponeringen få alle efterfølgende præsenterede modargumenter mod troen til at virke mindre imponerende" (William McGuire, "Resistance To Persuasion Conferred By Active And Passive Preor Refutation Of The Same And Alternative Counterarguments", Journal of Abnormal and Socialpsykologi, 1961).

Synes du, at denne analogi af inokulationer og immunisering er en nyttig og passende sammenligning med misinformations og desinformations område?

Nogle gør, nogle gør ikke.

I forbindelse med denne diskussion bedes du acceptere, at forudsætningen er rimelig og passende.

Hvordan skal vi prøve at inokulere eller immunisere folks sind?

Vi kunne få folk til at læse bøger, der kunne oplyse deres sind. Vi kan fortælle dem om det, eller få dem til at se videoer eller lytte til lydbånd. Etc.

Og vi kan bruge AI til at gøre det samme.

Et AI-system kan være udtænkt til at være din inokulator. Hver gang du begynder at gå online, såsom at se på internettet, kan en AI-baseret app forberede dig til din onlinerejse. AI'en kan give dig en lille bitte mængde desinformation, der er mærket som sådan, så du kan indse, at du er ved at se noget, der er bevidst falsk.

Efter eksponering for denne AI-fodret desinformation, bliver dit sind nu klaret til at klare desinformation eller misinformation, som du kan støde på i naturen på internettet. Dit sind er gjort klar. Voila, du ser en blog på internettet, der fremfører en påstået kendsgerning, at fremmede væsner fra Mars allerede er her på jorden og gemmer sig i almindeligt syn, men denne tilsyneladende desinformation eller misinformation afvises let af dit sind på grund af den forudgående inokulation (nå, så igen, måske er det sandfærdigt, og de er her virkelig!).

Jeg håber i hvert fald, at du nu er i stand til at skelne, hvordan det er, at AI kunne hjælpe med at inokulere eller immunisere mennesker med hensyn til desinformation eller misinformation.

Forskellige AI-apps er ved at blive udtænkt, der vil fungere som desinformation eller misinformations-podemidler. AI'en kan søge at tilvejebringe inokulering, der er bred og giver et generelt udseende af immunisering. AI kunne også udtænkes til mere specifikke former for podning. Ydermere kan AI'en arbejde på et personligt grundlag, der er tilpasset dine særlige behov eller interesser. Avanceret AI i dette rum vil også forsøge at bestemme dit toleranceniveau, mentale absorptionshastighed, retentionskapacitet og andre faktorer, når du som det var sammensætter og præsenterer såkaldte immuniseringsskud.

Virker ret praktisk.

AI som farlig tankespil-spiller

AI brugt på denne måde ville ved første øjekast virke ret praktisk (hey, jeg nævnte det for et sekund siden).

Der er en række potentielle ulemper og problemer, der er bekymrende og måske skræmmende.

I mine spalter diskuterer jeg ofte AI-kapaciteten med dobbelt anvendelse, se f.eks linket her. AI kan være en vigtig bidragyder til menneskeheden. Ak, AI er også behæftet med masser af farer og uheldige faldgruber.

For tilfældet med AI som en inculcator, lad os overveje disse demonstrative AI-etikrelaterede spørgsmål:

  • Bivirkninger fra mennesker
  • Ikke-reagerende reaktioner fra mennesker
  • AI fejlmålretning
  • AI undermålretning
  • Cyberbrud af AI
  • Andet

Vi vil kort undersøge disse bekymringer.

Bivirkninger af mennesker

Antag, at et menneske, der modtager denne form for AI-baseret podning, har en negativ reaktion eller frembringer en negativ virkning.

Personen kan misforstå immuniseringen og pludselig blive ufølsom over for enhver information, de modtager. De blokerer alle oplysninger. AI'en har på en eller anden måde fået dem til at smide barnet ud med badevandet (et gammelt ordsprog, måske værd at trække sig tilbage). I stedet for kun at forsøge at håndtere desinformation og misinformation, har personen reageret ved at beslutte, at al information altid er falsk.

Jeg tror ikke, vi ønsker, at folk går så overbord.

Der er et væld af bivirkninger, som AI kan fremkalde. Dette skyldes delvist, hvordan AI'en forsøgte at udføre podningen, men vi er også nødt til at lægge en del af problemet for fødderne af det menneske, der modtog podningen. De kunne have reageret på vilde eller bizarre måder, at andre, der modtog den samme AI-podning, ikke gjorde det.

Igen kan du sammenligne dette med analogien af ​​podninger for sygdomme.

Kort sagt vil det være vigtigt, at når sådanne AI-indsatser udnyttes, sker de på ansvarlige måder, der søger at minimere negative virkninger. Der bør også være et opfølgende aspekt af AI for at forsøge at fastslå, om der er opstået en bivirkning. Hvis der er en påvist bivirkning, bør AI'en udtænkes til at forsøge at hjælpe personen i deres uønskede reaktion og søge at overvinde eller lindre reaktionen.

Ikke-responsive reaktioner fra mennesker

En anden mulighed er, at den AI-fodrede podning ikke har nogen indflydelse på den modtagende person.

En person får en AI-baseret inokulation relateret til misinformation eller desinformation. Mens de fleste mennesker "får det" og bliver immuniserede, er der helt sikkert folk, der slet ikke vil reagere. De lærer intet af podningen. De reagerer ikke på AI-forsøget på at immunisere dem for enten al eller visse typer af misinformation eller desinformation.

Endnu en gang kan dette sammenlignes med inokulationer for sygdomme.

AI burde være udtænkt til at kæmpe med en sådan omstændighed.

AI fejlsøgning

Forestil dig, at en AI håber på at immunisere folk vedrørende et bestemt emne, som vi vil sige er emne X, men det viser sig, at emne Y i stedet bliver dækket. AI'en mismåler.

Dette er et dobbelt problem. For det første er emne X så ikke blevet dækket som det formodede og håbede formål med AI-podemaskinen. For det andet er emnet Y dækket, men vi ville måske ikke have ønsket, at folk skulle vaccineres mod det emne.

Ups.

Spørgsmål florerer. Kunne dette have været forhindret i at ske? Hvis det sker, kan vi så fortryde emnet Y-immunisering? Kan vi søge at dække emnet X-podning, eller vil personen være mindre modtagelig eller ikke-receptiv på grund af fejlmålretningen af ​​AI'en oprindeligt?

Der opstår mange problematiske bekymringer.

AI-undermålretning

En AI giver en inokulering om emnet Z. De personer, der modtager podningen, ser ud til at have en minimal eller næsten ubetydelig reaktion. Podningen var utilstrækkelig til at tage fat.

Du kan blive fristet til hurtigt at påstå, at dette er let at løse. Alt du skal gøre er at gentage podningen. Måske ja måske nej.

AI-podningen kan være af så begrænset en værdi, at uanset om du har folk, der oplever det hundrede gange, er resultatet stadig et marginalt resultat. Det kan være nødvendigt at booste podningen i stedet for blot at gentage den.

I mellemtiden kan du forestille dig, at der gøres et forsøg på at booste den AI-fodrede podning, men dette går overbord. Den boostede version forårsager hyperreaktioner. Yikes, vi er kommet fra ondt til værre.

Cyberbrud af AI

Forestil dig, at AI bliver brugt i vid udstrækning til at hjælpe folk med at blive inokuleret fra desinformation og misinformation.

En generel tillid tager fat hos folk. De ved og forventer, at AI vil præsentere dem for uddrag, der vil åbne deres øjne for det, der er kendt som desinformation og misinformation.

Alt er godt og godt, ser det ud til.

En ondskabsmand er på en eller anden måde i stand til at lave et cyberbrud på AI. De tvinger snigende ind i AI'en noget ønsket desinformation, som de ønsker, at folk skal tro ikke er desinformation. AI'en er indrettet til at få den faktiske desinformation til at se ud som sand information. Ligeledes er den sande information lavet til at fremstå som desinformation.

Folk er fuldstændig snookerede. De bliver desinformeret af AI. Oven i det, fordi de var blevet afhængige af AI'en, og på grund af tillid til, at AI'en gjorde det rigtige, falder de krog, line og synker for denne brudte AI. Uden at tøve.

I betragtning af hvor let desinformation kan spredes yderligere, vil den onde gerningsmand måske nyde, at eksistensen af ​​denne form for AI er deres nemmeste og hurtigste måde at få deres lumske løgne til at gå verden rundt. Ironisk nok, selvfølgelig, at have udnyttet AI-podemaskinen til i det væsentlige at sprede sygdommen.

Konklusion

Skal vi have AI til at spille tankespil med os?

Kan kunstig intelligens til desinformation og inokulering af misinformation være en truende trojansk hest?

Du kan argumentere for at bekymre dig om sådan et mareridt.

Andre håner en sådan mulighed. Folk er smarte nok til at vide, hvornår AI forsøger at narre dem. Folk vil ikke falde for sådan en dribling. Kun idioter ville blive vildledt af sådan AI. Det er de sædvanlige replikker og modargumenter.

Da jeg ikke vil virke mindre end fuldt ud beundrende af mennesker og den menneskelige natur, vil jeg blot foreslå, at der er rigelig indikation af, at mennesker kan falde for AI, der vildleder dem.

Der er et endnu større problem, der måske hænger sammen over alt dette.

Hvem laver AI'en, og hvordan bestemmer AI'en algoritmisk, hvad der betragtes som desinformation og misinformation?

En hel ildkamp finder sted i dag i verden som helhed om, hvad der specifikt udgør desinformation og misinformation. Nogle hævder, at fakta er fakta, så der kan aldrig være nogen forvirring over, hvad korrekt information versus upassende information er. Djævelen er til tider i detaljerne, det er helt sikkert.

En sidste bemærkning for nu. Abraham Lincoln udtalte berømt: "Du kan narre alle mennesker nogle gange og nogle af mennesker hele tiden, men du kan ikke narre alle mennesker hele tiden."

Vil AI, som bruges til at hjælpe med inokulering af menneskeheden fra desinformation og misinformation, være et vigtigt værktøj til at sikre, at ikke alle mennesker kan narre hele tiden? Eller kan det bruges til at narre flere af folket mere af tiden?

Tiden vil vise det.

Og det er bestemt ingen desinformation eller misinformation.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/