FBI svari pred izsiljevalskimi prevarami AI Deepfake

Zmožnosti generativne umetne inteligence za ustvarjanje realističnih slik so impresivne, vendar ameriški Zvezni preiskovalni urad pravi, da kriminalci uporabljajo globoke ponaredke, da ciljajo na žrtve za izsiljevanje.

"FBI še naprej prejema poročila žrtev, vključno z mladoletnimi otroki in odraslimi brez soglasja, katerih fotografije ali videoposnetki so bili spremenjeni v eksplicitno vsebino," je agencija zapisala v ponedeljkovem opozorilu PSA.

FBI pravi, da so organi kazenskega pregona lani prejeli več kot 7,000 poročil o spletnem izsiljevanju mladoletnikov, pri čemer je od aprila prišlo do povečanja števila žrtev tako imenovanih "prevar s spolnim izsiljevanjem" z uporabo globokih ponaredkov.

Deepfake je vse pogostejša vrsta video ali zvočne vsebine, ustvarjene z umetno inteligenco, ki prikazuje lažne dogodke, ki jih je zaradi generativnih platform umetne inteligence, kot sta Midjourney 5.1 in OpenAI DALL-E 2, vse težje prepoznati kot lažne.

Maja je ponaredek Tesle in izvršnega direktorja Twitterja Elona Muska, namenjen prevaram vlagateljev v kripto, postal viralen. Videoposnetek, ki so ga delili na družbenih omrežjih, je vseboval posnetke Muska iz prejšnjih intervjujev, prirejene tako, da ustrezajo prevari.

Deepfake niso vse zlonamerne, deepfake papeža Frančiška, oblečenega v bel suknjič Balenciaga, je postal viralen v začetku tega leta, nedavno pa so se deepfake, ustvarjene z umetno inteligenco, uporabile tudi za vrnitev žrtev umorov.

FBI je v svojih priporočilih posvaril pred kakršnimi koli plačili odkupnine, ker to ne zagotavlja, da kriminalci vseeno ne bodo objavili deepfake.

FBI prav tako svetuje previdnost pri deljenju osebnih podatkov in vsebine na spletu, vključno z uporabo funkcij za zasebnost, kot je nastavitev zasebnih računov, spremljanje spletne dejavnosti otrok in opazovanje nenavadnega vedenja ljudi, s katerimi ste v preteklosti komunicirali. Agencija tudi priporoča pogosto iskanje osebnih podatkov in podatkov o družinskih članih na spletu.

Druge agencije, ki so sprožile alarm, vključujejo Zvezno trgovinsko komisijo ZDA, ki je opozorila, da kriminalci uporabljajo deepfake, da bi nič hudega sluteče žrtve pretentali v pošiljanje denarja, potem ko so ustvarili zvočno deepfake prijatelja ali družinskega člana, ki pravi, da so bili ugrabljeni.

»Umetna inteligenca ni več namišljena ideja iz znanstvenofantastičnega filma. Živimo s tem, tukaj in zdaj. Prevarant bi lahko uporabil umetno inteligenco za kloniranje glasu vaše ljubljene osebe,« je FTC dejal v opozorilu potrošnikom marca in dodal, da so vse kriminalne potrebe kratek zvočni posnetek glasu družinskega člana, da bi posnetek zvenel resnično.

FBI se še ni odzval Dešifriranje prošnjo za komentar.

Bodite na tekočem s kripto novicami, prejemajte dnevne posodobitve v svoj nabiralnik.

Vir: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams