FBI advarer om AI Deepfake afpresningssvindel

Generativ AIs evner til at skabe livagtige billeder er imponerende, men US Federal Bureau of Investigation siger, at kriminelle bruger deepfakes til at målrette ofre for afpresning.

"FBI fortsætter med at modtage rapporter fra ofre, herunder mindreårige børn og voksne, hvis billeder eller videoer er blevet ændret til eksplicit indhold," sagde agenturet i en PSA-advarsel mandag.

FBI siger, at retshåndhævende myndigheder sidste år modtog over 7,000 rapporter om onlineafpresning rettet mod mindreårige, med en stigning i antallet af ofre for såkaldte "sextortion-svindel" ved hjælp af deepfakes siden april.

En deepfake er en mere og mere almindelig type video- eller lydindhold skabt med kunstig intelligens, der skildrer falske hændelser, der er stadig sværere at skelne som falske, takket være generative AI-platforme som Midjourney 5.1 og OpenAI's DALL-E 2.

I maj gik en deepfake af Tesla og Twitter-topchef Elon Musk lavet for at snyde kryptoinvestorer viralt. Videoen, der blev delt på sociale medier, indeholdt optagelser af Musk fra tidligere interviews, redigeret for at passe til fidusen.

Deepfakes er ikke alle ondsindede, en deepfake af pave Frans iført en hvid Balenciaga-jakke gik viralt tidligere på året, og for nylig er AI-genererede deepfakes også blevet brugt til at bringe mordofre tilbage til livet.

I sine anbefalinger advarede FBI mod at betale nogen løsesum, fordi det ikke garanterer, at forbryderne alligevel ikke vil poste deepfake.

FBI råder også til, at man udviser forsigtighed, når man deler personlige oplysninger og indhold online, herunder brug af privatlivsfunktioner som at gøre konti private, overvåge børns onlineaktivitet og holde øje med usædvanlig adfærd fra personer, som du tidligere har interageret med. Agenturet anbefaler også at køre hyppige søgninger efter personlige oplysninger og oplysninger om familiemedlemmer online.

Andre agenturer, der slår alarm, inkluderer US Federal Trade Commission, som advarede om, at kriminelle har brugt deepfakes til at narre intetanende ofre til at sende penge efter at have lavet en lyd-deepfake af en ven eller et familiemedlem, der siger, at de er blevet kidnappet.

"Kunstig intelligens er ikke længere en langt ude af en sci-fi-film. Vi lever med det her og nu. En svindler kunne bruge kunstig intelligens til at klone din elskedes stemme,” sagde FTC i en forbrugeradvarsel i marts og tilføjede, at alle de kriminelle behov er et kort lydklip af et familiemedlems stemme for at få optagelsen til at lyde ægte.

FBI har endnu ikke reageret på Dekryptér s anmode om kommentar.

Hold dig opdateret med kryptonyheder, få daglige opdateringer i din indbakke.

Kilde: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams