Mišljenje: Prijevare s Deepfake-om iskorištavaju ljubav i povjerenje kao nikada prije

Image generated with DALL·E through ChatGPT

Mišljenje: Prijevare s Deepfake-om iskorištavaju ljubav i povjerenje kao nikada prije

Vrijeme čitanja: 6 minuta

Porast je prevara vođenih umjetnom inteligencijom, a kibernetički kriminalci koriste tehnologiju dubokog lažiranja kako bi stvorili uvjerljive videe i slike kojima manipuliraju žrtvama. Od Francuskinje koja je vjerovala da pomaže Bradu Pittu do žrtve uvjerene visokokvalitetnim deepfakeom, linije između stvarnosti i obmane postaju nejasne. Kako se alati umjetne inteligencije razvijaju, tako rastu i rizici.

Mnogi od nas su to vidjeli u vijestima u siječnju: Francuskinja je izgubila preko 850.000 dolara prevarantima jer je vjerovala da novac daje Bradu Pittu – muškarcu za kojeg je mislila da je s njim u vezi više od godine dana.

Prevaranti su koristili naprednu generativnu umjetnu inteligenciju kako bi stvorili “selfije” i izmislili dokaze, uvjerivši svoju žrtvu, Anne – 53-godišnju dizajnericu koja prolazi kroz razvod – u tragičnu priču o lažnom Pittu s hitnim medicinskim potrebama. Tvrdili su da su mu sredstva zamrznuta zbog razvoda od Angelina Jolie.

Anne je donijela hrabru – i rizičnu – odluku javno podijeliti svoju priču, suočavajući se s milijunima ruganja, uvreda i virtualnih napada. “Kao budala, platila sam… Svaki put kad bih sumnjala u njega, uspio bi raspršiti moje sumnje”, rekla je u francuskoj Youtube emisiji, kako izvještava BBC. “Samo sam se dala prevariti, priznajem to, i zato sam se odlučila javno oglasiti, jer nisam jedina.”

Nije. Nekoliko mjeseci kasnije, španjolska policija uhitila je 5 ljudi koji su prevarili dvije druge žene pretvarajući se da su Pitt. Prije nekoliko dana, i jedan Kinez je također bio prevaren kada je povjerovao da njegova online djevojka treba novac za medicinske zahvate i financiranje svog posla.

Žrtve su dobile personalizirane videozapise i fotografije – slike koje nisu bile dostupne nigdje drugdje na internetu – što ih je dodatno uvjerilo u složene laži njihovih prevaranata.

Nedavno izvješće tvrtke Entrust sugerira da se pokušaji Deepfakea javljaju svakih 5 minuta. Svaki dan se pojavljuju novi slučajevi ljudi koji su prevareni generativnom AI – zabrinjavajući trend, posebno s obzirom na tisuće, pa čak i milijune ljudi, zakopanih u dugovima i sramu, koji se ne usude prijaviti to vlastima, a kamoli to javno objaviti.

Porast prevara putem DeepFakea

Mnoge studije i izvješća upozoravaju na povećanje prevara i sajber napada pokretanih AI. Nedavni podaci iz TrustPair’s 2025 Fraud Trends and Insights pokazali su porast od 118% godišnje u AI-om pogonjenim prevarama, kako je izvijestio CFO.

Bok, Hiya, američka tvrtka specijalizirana za sigurnost glasa i rješenja za performanse, nedavno je podijelila rezultate ankete, otkrivajući da je 31% kupaca u šest zemalja primilo deepfake pozive u 2024. godini, a 45% njih je prevareno – 34% te skupine izgubilo je novac, a 32% im je ukradena osobna informacija. U prosjeku, žrtve telefonskih prevara gube više od $500.

Prije nekoliko dana, The Guardian je otkrio da je organizirana mreža u Gruziji – u Istočnoj Europi – koristila lažne oglase na Facebooku i Googleu kako bi prevarila više od 6,000 ljudi diljem Europe, Kanade i U.K., zaradivši 35 milijuna dolara kroz svoje operacije.

Oko 85 dobro plaćenih gruzijskih prevaranta koristilo je javne osobe poput engleskog novinara Martina Lewisa, pisca i avanturista Bena Foglea i Elona Muska za svoje prevare. Prevaranti su promovirali lažne kriptovalute i druge investicijske sheme, natjeravajući žrtve da prenesu novac putem digitalnih banaka poput Revoluta—koji je nedavno dobio bankovnu licencu u Ujedinjenom Kraljevstvu.

Napredna AI, sofisticiranije prevare

Kibernetski kriminalci posljednjih su godina koristili generativnu AI, koristeći alate poput ChatGPT-a za izradu i prevođenje privlačnih e-mailova i generiranje uvjerljivog tekstualnog sadržaja. Sada, kako se AI alati razvijaju, upotreba slika i videozapisa generiranih AI-om povećava se.

Prije nekoliko tjedana, ByteDance je predstavio svoj najnoviji AI video alat, OmniHuman-1, sposoban za generiranje jednog od najrealističnijih deepfakea na tržištu. U međuvremenu, sve više AI tvrtki razvija slične tehnologije. Čini se da je samo pitanje vremena prije nego što se ovi alati također počnu koristiti za prevare.

Iako se ove tehnologije mogu koristiti “u dobroj vjeri” pa čak i za suzbijanje porasta prevara – poput AI ‘Bake’ Daisy tvrtke O2, dizajnirane da angažiraju prevarante u stvarnim pozivima i odvraćaju ih od stvarnih žrtava – posljedice njihove zlonamjerne upotrebe čine se nemjerljive.

Na Wizcaseu smo nedavno izvijestili o porastu “Scam-Yourself napada” za 614% ukazujući na to kako hakeri koriste tehnologije deepfake da bi lažni sadržaj izgledao “realnije”, te kako su društvene mreže poput Meta morale intervenirati u prevarama s klanjem svinja, budući da mnogi prijetitelji koriste ove platforme. U istraživanju, Meta je napomenula da su mnoge prevare započele na aplikacijama za upoznavanje, dokazujući kako je romantična ljubav među najčešćim mamcima – sada i povijesno.

Ljubav: Snažna mamac

Sajber kriminalci nisu samo vješti u razumijevanju i korištenju napredne umjetne inteligencije – oni također imaju duboko razumijevanje ljudske inteligencije. Prijetitelji znaju kako identificirati slabosti, izgraditi povjerenje i izvršiti svoje zahtjeve u pravom trenutku.

Studija Volis li me? Psihološke karakteristike žrtava romantičnih prevara, objavljena 2018. godine od strane dr. sc. Monice T. Whitty, objašnjava kako su međunarodne kriminalne grupe provodile prevare u romantičnim vezama mnogo godina – čak i prije interneta – i kako su sredovječne, dobro obrazovane žene sklonije biti žrtvama ovakvog tipa prevare – baš kao i Anne.

Što možemo očekivati sada, osam godina nakon ove studije, s tehnologijom koja nalikuje na naučnu fantastiku? Vjerojatno smo svi ranjiviji nego što mislimo.

“Žrtve ove vrste prijevare često su ljudi u potrazi za smislom, emocionalno ranjivi”, napisala je Annie Lecompte, docentica na Sveučilištu u Quebecu u Montrealu (UQAM), u nedavno objavljenom članku u The Conversation. “Iako se ismijava i nerazumije, prijevara u ljubavi temelji se na složenim psihološkim mehanizmima koji iskorištavaju povjerenje, emocije i ranjivost žrtava.”

Srce slomljeno, novčanik prazan

Liu – prezime Kineza koji je nedavno izgubio 200,000 yuana, otprilike $28,000, u prijevari temeljenoj na AI – zaista je vjerovao da je njegova AI djevojka stvarna, jer je vidio personalizirane fotografije pa čak i videozapise. Gradi sve jaču emocionalnu vezu… s njegovim prevarantima.

Iako nije pružio više detalja o kontekstu u izvještajima, to je učinila druga žrtva, 77-godišnja Nikki MacLeod. Također je mislila da je u pravoj vezi s virtualnom djevojkom i poslala joj je £17,000 – otprilike $22,000 – putem bankovnih transfera, PayPal-a i poklon kartica.

“Nisam glupa osoba, ali uspjela me uvjeriti da je stvarna osoba i da ćemo provesti život zajedno”, rekla je MacLeod za BBC.

MacLeod se osjećala usamljeno i tužno kada je upoznala Allu Morgan u grupnom chatu. Nakon nekog vremena, MacLeod je zatražila video uživo, ali Morgan je rekla da to nije moguće jer radi na naftnoj platformi. Kada je MacLeod počela sumnjati, Morgan je počela slati realistične videozapise. “Poslala mi je video da kaže ‘Bok Nikki, nisam prevarant, nalazim se na svojoj naftnoj platformi’, i potpuno sam povjerovala u to,” objasnila je MacLeod. Sadržaj je dostupan na BBC-jevoj web stranici i lako je vidjeti zašto je MacLeod vjerovala da je to stvarno – riječ je o visokokvalitetnom deepfakeu.

BBC je zamolio stručnjakinju za kibernetičku sigurnost i interakciju između čovjeka i računala na Sveučilištu Abertay, dr. Lynsay Shepherd, da analizira fotografije i videozapise koje je MacLeod primila. “Na prvi pogled izgleda legitimno, ako ne znate na što trebate obratiti pažnju, ali ako pogledate oči – pokreti očiju nisu sasvim ispravni,” rekla je dr. Shepherd.

“Dokumenti su izgledali stvarno, videozapisi su izgledali stvarno, banka je izgledala stvarna,” rekao je MacLeod. “S uvođenjem umjetne inteligencije, svaka jedina stvar može biti lažna.”

Svidio vam se ovaj članak? Ocijenite ga!
Nije mi se uopće svidjelo Baš mi se i nije svidjelo U redu je Poprilično je dobro! Oduševilo me!

Drago nam je da vam se svidio naš rad!

Kao naš cijenjeni čitatelj, biste li nas pohvalili na Trustpilotu? Kratko je i puno nam znači. Hvala što ste sjajni!

Ocijenite nas na Trustpilotu
0 Ocijenilo 0 korisnika
Naslov
Komentiraj
Zahvaljujemo na povratnoj informaciji
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Ostavite komentar

Loader
Loader Prikaži više...