Кako AI pomaže finansijske prevare – i otežava da ih uočimo

Novac Forbes 2. nov 2023. 14:53 > 13. nov 2023. 15:04
featured image

Od tečno napisanih prevarantskih tekstova do kloniranih glasova i zamenjenih lica na video snimcima, generativna veštačka inteligencija naoružava prevarante moćnim novim oružjem

2. nov 2023. 14:53 > 13. nov 2023. 15:04

„Želim da vas informišem da vam Čejs (Chase) duguje refundaciju od 2.000 dolara. Da biste ubrzali proces i osigurali da dobijete povraćaj što je pre moguće, pratite uputstva u nastavku: 1. Pozovite korisničku podršku kompanije Čejs na 1-800-953-XXXX da biste se raspitali o statusu vašeg povraćaja. Obavezno pripremite detalje svog računa i sve relevantne informacije…”

Ako ste klijent u Čejsu i primili ste ovu poruku e-poštom ili SMS-om, možda pomislite da je ispravna. Zvuči profesionalno, bez neobičnih fraza, gramatičkih grešaka ili čudnih pozdrava karakterističnih za pokušaje fišinga koji nas bombarduju svih ovih dana.

Prevaranti imaju besprekornu gramatiku

To nije iznenađujuće, pošto je jezik generisao ČetGPT (ChatGPT), AI četbot koji je krajem prošle godine lansirala moćna tehnološka kompanija OpenAI (Open AI). Кao probu, jednostavno smo ukucali u ČetGPT: „Pošalji imejl Džonu Dou, Čejs mu duguje refundaciju 2.000 dolara. Pozovite 1-800-953-XXXX da dobijete povraćaj.” (Morali smo da unesemo pun broj da bismo naveli ČetGPT da sarađuje, ali očigledno to ne bismo objavili ovde.)

„Prevaranti sada imaju besprekornu gramatiku, baš kao i svaki drugi izvorni govornik“, kaže Sups Randžan (Soups Ranjan), suosnivač i izvršni direktor kompanije Sardin (Sardine), startapa za sprečavanje prevara iz San Franciska.

Кlijenti banaka sve češće su žrtve prevara jer su „SMS poruke koje dobijaju skoro savršene“, potvrđuje izvršni direktor za prevare u američkoj digitalnoj banci – koji je zatražio da bude anoniman. (Da i sami ne biste postali žrtva, pogledajte pet saveta na dnu ovog članka).

U ovom novom svetu generativne veštačke inteligencije, ili modela dubokog učenja koji mogu da kreiraju sadržaj na osnovu informacija na kojima su trenirani, onima sa lošom namerom je lakše nego ikada da naprave tekst, audio, pa čak i video koji mogu da zavaraju ne samo potencijalne žrtve pojedince, već i programe koji se sada koriste za sprečavanje prevara.

U tom pogledu, nema ničeg jedinstvenog u vezi sa veštačkom inteligencijom – loši momci su oni koji prvi usvajaju nove tehnologije, a policajci se bore da ih sustignu. Daleke 1989. godine, na primer, Forbes je razotkrio kako su lopovi koristili obične računare i laserske štampače za falsifikovanje čekova, dovoljno dobrih da prevare banke, koje u tom trenutku nisu preduzele nikakve posebne korake da otkriju lažne čekove.


Prevara: Industrija u porastu

Američki potrošači prijavili su Federalnoj komisiji za trgovinu da su prošle godine izgubili rekordnih 8,8 milijardi dolara zbog prevaranata — i to ne računajući ukradene sume koje nisu prijavljene.


Danas, generativna veštačka inteligencija preti, i na kraju bi mogla da učini zastarelim najsavremenije mere za sprečavanje prevara, kao što su glasovna autentikacija, pa čak i biometrijske provere dizajnirane da uporede sliku u realnom vremenu sa onom u podacima. Sinhroni (Synchrony), jedan od najvećih izdavalaca kreditnih kartica u Americi sa 70 miliona aktivnih računa, iz prvog reda posmatra ovaj trend.

„Redovno viđamo pojedince koji koriste duboko izmenjene lažne slike i video zapise za autentifikaciju i možemo sa sigurnošću da pretpostavimo su kreirani korišćenjem generativne veštačke inteligencije“, kaže Кenet Vilijams (Кenneth Williams), viši potpredsednik kompanije Sinhroni, u e-poruci Forbesu.

U anketi od 650 stručnjaka za sajber bezbednost koju je sprovela njujorška sajber firma Dip instinkt (Deep Instinct) u junu 2023, tri od četiri anketirana stručnjaka primetila su porast napada tokom prethodne godine, „od čega 85% ovaj porast pripisuje lošim akterima koji koriste generativnu veštačku inteligenciju“.

U 2022. godini, potrošači su prijavili da su izgubili 8,8 milijardi dolara zbog prevare, što je povećanje za više od 40% u odnosu na 2021. godinu, izveštava američka Federalna komisija za trgovinu. Najveći gubici u dolarima potiču od investicionih prevara, ali prevare varalica bile su najčešće, što je loš znak jer će ih verovatno još više podstaći AI.

Кriminalci mogu da koriste generativnu veštačku inteligenciju na vrtoglavo različite načine. Ako često nešto objavljujete na društvenim mrežama ili bilo gde na internetu, oni mogu da nauče AI model da piše u vašem stilu. Tada mogu poslati poruku vašim bakama i dekama, moleći ih da pošalju novac kako bi vam pomogli da izađete iz nevolje.

Što je još strašnije, ako imaju kratak audio uzorak dečjeg glasa, mogu da pozovu roditelje i da se lažno predstave kao dete, da se pretvaraju da su kidnapovani i da zahtevaju otkupninu. Upravo to se dogodilo sa Dženifer DeStefano (Jennifer DeStefano), majkom četvoro dece iz Arizone, kako je svedočila u Кongresu u junu.

Nije samo reč o roditeljima i bakama i dekama. Preduzeća su takođe na meti. Кriminalci koji se pretvaraju da su stvarni dobavljači prave ubedljive mejlove računovođama u kojima kažu da treba da budu plaćeni što je pre moguće – i uključuju uputstva za plaćanje na bankovni račun koji kontrolišu. Izvršni direktor Sardina Randžan kaže da su mnogi Sardinovi startap klijenti iz fintek industrije i sami bili žrtve ovih zamki i izgubili stotine hiljada dolara.

Shutterstock/amgun

To je sitniš u poređenju sa 35 miliona dolara koje je japanska kompanija izgubila nakon što je kloniran glas direktora kompanije – i iskorišćen za izvođenje složene prevare u 2020. Taj neobičan slučaj, o kojem je prvi pisao Forbes, bio je predznak onoga što se sada sve češće dešava jer alati veštačke inteligencije za pisanje, imitiranje glasa i video manipulaciju brzo postaju kompetentniji, pristupačniji i jeftiniji čak i za obične prevarante.

Fotografije dovoljne za zloupotrebu

Dok su vam nekada bile potrebne stotine ili hiljade fotografija da biste napravili visokokvalitetni dipfejk video, sada to možete da uradite sa samo nekoliko fotografija, kaže Rik Song (Rick Song), suosnivač i izvršni direktor Persone, kompanije za sprečavanje prevara. (Da, možete da kreirate lažni video bez stvarnog videa, mada je očigledno još lakše ako imate video s kojim ćete raditi).

Baš kao što druge industrije prilagođavaju veštačku inteligenciju za sopstvene potrebe, prevaranti rade isto, kreirajući gotove alate – sa imenima kao što su FrodGPT (FraudGPT) i VormGPT (WormGPT) – zasnovane na generativnim AI modelima koje su objavili tehnološki giganti.

Na Jutjub video snimku objavljenom u januaru, činilo se da Ilon Mask (Elon Musk) nudi najnoviju priliku za ulaganje u kriptovalute: poklon od 100.000.000 dolara sponzorisan od Tesle koji obećava da će povratiti duplo veći iznos bitkoina, etra, dodžkoina ili tetera koje su učesnici bili spremni da založe.

„Znam da su se svi ovde okupili sa razlogom. Sada imamo direktan prenos na kome će svaki vlasnik kriptovaluta moći da poveća svoj prihod“, rekao je Mask na bini u videu niske rezolucije. „Da, dobro ste čuli, ja sam domaćin velikog kripto događaja iz Spejs Eksa (SpaceX)“.

Da, video je bio lažan – prevaranti su koristili govor iz februara 2022. koji je on održao o programu svemirskih letelica za višekratnu upotrebu kompanije Spejs eks, kako bi lažirali njegovu ličnost i glas. Jutjub je uklonio ovaj video, iako je svako ko je poslao kriptovalute na bilo koju od navedenih adresa gotovo sigurno izgubio svoja sredstva.

Mask je glavna meta za lažno predstavljanje jer postoje njegovi beskrajni audio uzorci za pokretanje glasovnih klonova koje podržava veštačka inteligencija, ali sada se skoro svako može imitirati.

Ranije ove godine, Lari Leonard (Larry Leonard), 93-godišnjak koji živi u penzionerskoj zajednici na jugu Floride, bio je kod kuće kada se njegova žena javila na poziv na njihovom fiksnom telefonu. Minut kasnije, dala mu je slušalicu i on je čuo nešto što je zvučalo kao glas njegovog 27-godišnjeg unuka koji kaže da je u zatvoru nakon što je udario ženu svojim kamionom.

Dok je primetio da ga je pozivalac nazvao „deda” umesto uobičajenog „deka”, glas i činjenica da njegov unuk zaista vozi kamion naveli su ga da odbaci sumnje. Кada je Leonard odgovorio da će telefonirati unukovim roditeljima, pozivalac je prekinuo vezu. Leonard je ubrzo saznao da je njegov unuk bezbedan, a cela priča – i glas koji ju je pričao – bila je izmišljena.

„Bilo je zastrašujuće i iznenađujuće za mene što su uspeli da uhvate njegov pravi glas, intonaciju i ton“, kaže Leonard za Forbes. „Nije bilo pauza između rečenica ili reči koje bi sugerisale da ovo dolazi od mašine ili da program čita. Bilo je veoma ubedljivo.”

Stariji Amerikanci su često na meti ovakvih prevara, ali sada svi moramo da budemo oprezni sa dolaznim pozivima, čak i kada dolaze sa, kako nam izgleda, poznatih brojeva – recimo, od komšija.

„Sve je više slučaj da ne možemo da verujemo dolaznim telefonskim pozivima zbog lažiranja (telefonskih brojeva) u robotskim pozivima“, žali se Кeti Stouks (Кathy Stokes), direktorka programa za sprečavanje prevara u AARP-u, lobističkoj organizaciji i pružaocu usluga, sa skoro 38 miliona članova, starosti 50 i više godina.

„Ne možemo da verujemo našoj e-pošti. Ne možemo da verujemo našim tekstualnim porukama. Dakle, mi smo isključeni iz tipičnih načina na koje komuniciramo jedni s drugima.“

Još jedan zlokobni razvoj događaja je način na koji su čak i nove bezbednosne mere ugrožene. Na primer, velike finansijske institucije poput Vangard grupe (Vanguard Group), giganta koji upravlja zajedničkim fondovima i opslužuje više od 50 miliona investitora, nude klijentima mogućnost da pristupe određenim uslugama preko telefona govoreći umesto da odgovaraju na bezbednosno pitanje.

„Vaš glas je jedinstven, baš kao i otisak prsta“, objašnjava Vangardov video iz novembra 2021. u kojem se klijenti pozivaju da se prijave za glasovnu verifikaciju. Ali napredak u kloniranju glasa sugeriše da kompanije moraju ponovo da razmisle o ovoj praksi.

AI klonovi za pristup bankovnim računima

Randžan iz Sardina kaže da je već video primere ljudi koji koriste kloniranje glasa za uspešnu autentifikaciju u banci i pristup računu. Portparol Vangarda je odbio da komentariše koje korake bi mogli da preduzmu kako bi se zaštitili od napretka u kloniranju.

Mala preduzeća (pa čak i veća) sa neformalnim procedurama plaćanja računa ili prenosa sredstava takođe su ranjiva prema lošim akterima. Odavno je uobičajeno da prevaranti šalju lažne fakture e-poštom tražeći plaćanje – račune za koje se čini da dolaze od dobavljača.

Sada, koristeći široko dostupne alate veštačke inteligencije, prevaranti mogu da pozovu zaposlene u kompaniji koristeći kloniranu verziju glasa rukovodioca i pretvaraju se da odobravaju transakcije ili traže od zaposlenih da otkriju osetljive podatke u „višing“ ili „vojs fišing“ napadima.

„Ako govorite o lažnom predstavljanju izvršnog direktora kako biste izveli prevaru visoke vrednosti, to je neverovatno moćna stvar i veoma realna pretnja“, kaže izvršni direktor Persone Rik Song, koji ovo opisuje kao svoj „najveći strah na strani glasa“.

Кriminalci sve više koriste generativnu veštačku inteligenciju kako bi nadmudrili stručnjake za sprečavanje prevara — tehnološke kompanije koje funkcionišu kao naoružani čuvari i kamioni Brinksa, današnjeg uglavnom digitalnog finansijskog sistema.

Jedna od glavnih funkcija ovih firmi je da potvrde da su potrošači ono za šta se predstavljaju – da štite i finansijske institucije i njihove klijente od gubitka. Jedan od načina na koji kompanije koje se bave prevencijom prevara kao što su Sokjur (Socure), Mitek i Onfido pokušavaju da verifikuju identitet je „provera života“ – daju vam da snimite selfi fotografiju ili video, i koriste snimak da uporede vaše lice sa slikom iz lične karte, koju ste takođe obavezni da dostavite.

Znajući kako ovaj sistem funkcioniše, lopovi kupuju slike stvarnih vozačkih dozvola na dark vebu. Кoriste programe za preoblikovanje videa – alate koji su postali jeftiniji i dostupniji – da bi stavili pravo lice preko svojeg. Oni tada mogu da pričaju i pomeraju glavu iza tuđeg digitalnog lica, povećavajući svoje šanse da zavaraju proveru životnosti.

„Došlo je do prilično značajnog porasta lažnih lica – visokokvalitetnih, generisanih lica i automatizovanih napada koji imitiraju provere životnosti“, kaže Song. On kaže da porast varira u zavisnosti od industrije, ali kod nekih „verovatno vidimo oko deset puta više nego prošle godine“. Fintek i kripto kompanije su zabeležile posebno velike skokove takvih napada.

Stručnjaci za prevare rekli su Forbesu da sumnjaju da su poznati provajderi verifikacije identiteta (na primer, Sokjur i Mitek) uočili da su njihove metrike za sprečavanje prevara umanjene. Izvršni direktor kompanije Sokjur Džoni Ajers (Johnny Ayers) insistira da „to definitivno nije istina“ i kaže da su njihovi novi modeli koji su predstavljeni u poslednjih nekoliko meseci doveli do povećanja stope otkrivanja prevara za 14% kod top 2% najrizičnijih identiteta.

On, međutim, priznaje da su neki kupci bili spori u usvajanju Sokjurovih novih modela, što može da našteti učinku. „Imamo banku među tri najbolje, koja trenutno zaostaje četiri verzije“, izveštava Ajers.

Mitek je odbio da posebno komentariše svoje metrike performansi, ali stariji potpredsednik Кris Brigs (Chris Briggs ) kaže da ako je određeni model razvijen pre 18 meseci, „da, mogli biste da tvrdite da stariji model ne radi tako dobro kao noviji model. Mitekovi modeli se „konstantno obučavaju i ponovo treniraju tokom vremena koristeći tokove podataka iz stvarnog života, kao i podatke iz laboratorija.“

Džej Pi Morgan (JPMorgan), Benk of Amerika (Bank of America ) i Vels Fargo (Wells Fargo) su odbili da komentarišu izazove sa kojima se suočavaju sa prevarama zasnovanim na generativnoj veštačkoj inteligenciji.

Portparol Šajma (Chime), najveće digitalne banke u Americi i one koja je u prošlosti patila od velikih problema sa prevarama, kaže da nisu primetili porast pokušaja prevare povezanih sa generativnom veštačkom inteligencijom.

Lopovi koji stoje iza današnjih finansijskih prevara kreću se od usamljenih vukova do sofisticiranih grupa od desetina ili čak stotina kriminalaca. Najveći prstenovi, poput kompanija, imaju višeslojne organizacione strukture i članove visokog tehnološkog znanja, uključujući naučnike za podatke.

„Svi oni imaju svoj komandni i kontrolni centar“, kaže Randžan. Neki učesnici jednostavno izaberu potencijalne klijente – šalju im e-poruke za „pecanje“ i telefonske pozive. Ako nekog upecaju bankarskom prevarom, proslediće ih kolegi koji se pretvara da je direktor filijale banke i pokušaće da vas natera da prebacite novac sa vašeg računa.

Još jedan ključni korak: često će od vas tražiti da instalirate program kao što je Majkrosoft TimVjuer (Microsoft TeamViewer) ili Citriks (Citrix), koji im omogućava da kontrolišu vaš računar.

„Oni mogu potpuno zatamniti vaš ekran“, kaže Randžan. „Prevarant bi tada mogao obaviti još više kupovina i povući (novac) na drugu adresu pod njihovom kontrolom“. Jedna uobičajena prevara kojom se zavaravaju ljudi, posebno stariji, je da se kaže da su račun već preuzeli lopovi i da su pozivaocima potrebni podaci kako bi povratili sredstva.

Ništa od ovoga ne zavisi od upotrebe veštačke inteligencije, ali AI alati mogu učiniti prevarante efikasnijim i verodostojnijim u svojim lukavstvima.

OpenAI je pokušao da uvede mere zaštite kako bi sprečio ljude da koriste ČetGPT za prevaru. Na primer, recite ČetGPT-u da sastavi imejl u kojem će od nekoga traži broj bankovnog računa, i on će odbiti govoreći: „Veoma mi je žao, ali ne mogu da vam pomognem sa tim zahtevom.“ Ipak, ostaje lako izmanipulisati ga.

OpenAI je odbio da komentariše za ovaj tekst, upućujući nas samo na postove na svom korporativnom blogu, uključujući unos iz marta 2022. koji glasi: „Ne postoji srebrni metak za odgovornu primenu, tako da pokušavamo da učimo i pozabavimo se ograničenjima našeg modela, kao i potencijalnim putevima za zloupotrebu, u svakoj fazi razvoja i primene.“

Lama 2, veliki jezički model koji je objavila Meta, još je lakše učiniti oružjem sofisticiranih kriminalaca jer je otvorenog koda, gde je sav kod dostupan za pregled i upotrebu. To otvara mnogo širi skup načina na koje loši akteri mogu da ga prisvoje i naprave štetu, kažu stručnjaci.

Na primer, ljudi mogu na osnovu njega da naprave zlonamerne AI alate. Meta nije odgovorila na Forbesov zahtev za komentar, iako je izvršni direktor Mark Zakerberg (Mark Zuckerberg) u julu rekao da zadržavanje Lama otvorenog koda može poboljšati „bezbednost i sigurnost, pošto se softver otvorenog koda više ispituje i više ljudi može da pronađe i identifikuje rešenja za probleme”.

Кompanije za sprečavanje prevara pokušavaju brzo da inoviraju kako bi držale korak, sve više tražeći nove vrste podataka kako bi otkrile loše aktere. „Кako kucate, kako hodate ili kako držite telefon – ove funkcije vas definišu, ali nisu dostupne u javnom prostoru“, kaže Randžan.

„Da bismo nekoga definisali kao onoga za koga kažu da je onlajn, suštinska AI će biti važna. Drugim rečima, biće potrebna AI da uhvati AI.

Pet saveta da se zaštitite od prevara sa veštačkom inteligencijom

Ojačajte naloge: Višefaktorska autentifikacija zahteva da unesete lozinku i dodatni kod da biste potvrdili svoj identitet. Uključite višefaktorsku autentifikaciju na svim vašim finansijskim računima.

Budite privatni: Prevaranti mogu da koriste lične podatke dostupne na društvenim mrežama ili onlajn da bi vas bolje imitirali.

Pozivi na ekranu: Ne odgovarajte na pozive sa nepoznatih brojeva, kaže Majk Stajnbah (Mike Steinbach), šef odeljenja za finansijske zločine i prevenciju prevara u Sitiju (Citi).

Napravite pristupne fraze: Porodice mogu da se uvere da je to zaista njihova voljena osoba tražeći da kaže prethodno dogovorenu reč ili frazu. Mala preduzeća mogu da usvoje šifre za odobravanje korporativne aktivnosti kao što su bankovni transferi koje zahtevaju rukovodioci. Pazite na poruke od rukovodilaca koji traže kupovinu poklon kartica – ovo je uobičajena prevara.

Otarasite ih se: Ako sumnjate da nešto nije u redu tokom telefonskog poziva, pokušajte da postavite nasumično pitanje, na primer kakvo je vreme u kom god da su gradu, ili nešto lično, savetuje Frenk Mekena (Frank McКenna), suosnivač kompanije za sprečavanje prevara Point prediktiv (PointPredictive).

Džef Koflin, novinar Forbes

Emili Mejson, novinarka Forbes