FBI varoittaa AI Deepfake kiristyshuijauksista

Generatiivisen tekoälyn kyky luoda todentuntuisia kuvia ovat vaikuttavia, mutta Yhdysvaltain liittovaltion tutkintavirasto sanoo, että rikolliset käyttävät syväväärennösten kohteena kiristyksen uhreja.

"FBI saa edelleen raportteja uhreilta, mukaan lukien alaikäisiltä lapsilta ja suostumattomilta aikuisilta, joiden valokuvat tai videot on muutettu avoimeksi sisällöksi", virasto sanoi PSA:n varoituksessa maanantaina.

FBI:n mukaan lainvalvontaviranomaiset saivat viime vuonna yli 7,000 XNUMX ilmoitusta alaikäisiin kohdistuneesta verkkokiristyksestä, ja niin sanottujen "kiristyshuijausten" uhrien määrä on lisääntynyt huhtikuusta lähtien.

Deepfake on yhä yleisempi tekoälyllä luotu video- tai äänisisältö, joka kuvaa vääriä tapahtumia, joita on yhä vaikeampi havaita väärennöksiksi luovien tekoälyalustojen, kuten Midjourney 5.1 ja OpenAI:n DALL-E 2, ansiosta.

Toukokuussa Teslan ja Twitterin toimitusjohtajan Elon Muskin kryptosijoittajien huijaamiseksi tehty deepfake levisi virukselle. Sosiaalisessa mediassa jaettu video sisälsi otoksia Muskista aiemmista haastatteluista, muokattuna huijaukseen sopivaksi.

Kaikki syväväärennökset eivät ole haitallisia, valkoista Balenciaga-takkia pukeutunut paavi Franciscus levisi virukseen aiemmin tänä vuonna, ja viime aikoina tekoälyn luomia syväväärennöksiä on myös käytetty herättämään murhan uhreja henkiin.

Suosituksissaan FBI varoitti maksamasta lunnaita, koska se ei takaa, että rikolliset eivät julkaise syvää väärennöstä.

FBI neuvoo myös varovaisuutta jakaessasi henkilökohtaisia ​​tietoja ja sisältöä verkossa, mukaan lukien tietosuojaominaisuuksien käyttäminen, kuten tilien yksityistäminen, lasten verkkotoiminnan valvonta ja ihmisten epätavallisen käytöksen tarkkailu, joiden kanssa olet ollut vuorovaikutuksessa aiemmin. Virasto suosittelee myös henkilökohtaisten ja perheenjäsenten tietojen säännöllistä hakua verkossa.

Muita hälyttäviä virastoja ovat Yhdysvaltain liittovaltion kauppakomissio, joka varoitti, että rikolliset ovat käyttäneet syväväärennöksiä huijatakseen pahaa-aavistamattomia uhreja lähettämään rahaa luotuaan ystävästä tai perheenjäsenestä ääniteon, jossa sanotaan, että heidät on kidnapattu.

”Tekoäly ei ole enää kaukaa haettu idea scifi-elokuvasta. Elämme sen kanssa, tässä ja nyt. Huijari voi käyttää tekoälyä rakkaasi äänen kloonaamiseen", FTC sanoi kuluttajavaroitteessa maaliskuussa ja lisäsi, että kaikki rikolliset tarpeet ovat lyhyt äänileike perheenjäsenen äänestä, jotta äänitys kuulostais todelliselta.

FBI ei ole vielä vastannut Pura n kommentti.

Pysy ajan tasalla kryptouutisista, saat päivittäiset päivitykset postilaatikkoosi.

Lähde: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams