Ko je stvorio dipfejkove i kako ih prepoznati

Vesti Forbes 8. maj 2024. 07:00
featured image

8. maj 2024. 07:00

Lažne slike Kejti Peri i Rijane na Met Gala događaju postale su viralne u ponedeljak i to je najnoviji primer dipfejkova koji ljude na internetu pokušavaju da zavaraju da su poznate ličnosti i političari rekli ili uradili nešto što nisu – ali često jednostavne greške, poput nedostatka prstiju ili lošeg kvaliteta, jasni su pokazatelji fotošopiranih video snimaka i slika.

Dipfejkovi su oblik veštačke inteligencije nazvan „duboko učenje“ koja sebe uči kako da rešava probleme kada joj se pruži skup podataka, i koriste se za zamenu lica u video zapisima i slikama kako bi se napravile realistične lažne objave.

Neki dipfejkovi se prave radi zabave, poput kompilacije Nikolasa Kejdža montiranog u filmove u kojima nije glumio, poput Ratova zvezda i Supermena.

Drugi su koristili AI zlonamerno, praveći pornografiju (uglavnom „osvetničku“) često koristeći lica poznatih ličnosti – prema izveštaju Deeptrace-a, 96% svih dipfejk video snimaka pronađenih na internetu 2019. godine bili su pornografskog sadržaja.

Zasluga za stvaranje dipfejkova pripisuje se korisniku mreže Redit pod nadimkom „Deepfake“ koji je 2017. postavio lažnu pornografiju na sajt, zamenjujući lica porno glumaca licima poznatih ličnosti poput Tejlor Svift i Skarlet Johanson.

I političari su često žrtve dipfejkova – lažni video Baraka Obame kružio je 2018. i u njemu naziva Donalda Trampa „potpunim i apsolutnim idiotom“.

Met Gala je bila u ponedeljak i lažna slika Peri u velikoj cvetnoj haljini deljena je na mreži X, prikupivši više od 15,5 miliona pregleda i 314.000 lajkova. Međutim, Peri izgleda kao da joj nedostaje ruka, nije na pravom tepihu za ovogodišnju temu i samo jedan red fotografa u pozadini obraća pažnju na nju – što bi bilo neverovatno da je prava fotografija.

Druga AI-generisana slika Peri, u drugoj haljini, takođe je postala viralna na platformi, sa više od 4,5 miliona pregleda i 115.000 lajkova. Iako je pevačica na pravom tepihu na ovoj slici, postoje nepravilnosti u njenim očima i ruci. Pevačica je retvitovala oba posta na X i postavila prvu sliku na Instagram sa opisom „nije mogla da stigne na Met, morala je da radi“. AI-generisana slika Rijane takođe je postala viralna na mreži X, iako pevačica nije išla na događaj – navodno zbog gripa.

Kako prepoznati dipfejk

Otpaci: To su čudne stvari, ili nešto što nije na svom mestu na slici ili videu. To mogu da budu neusklađene cipele ili minđuše, deformisana vilica, prsti koji nedostaju ili dodatne noge.

Pokret očiju: Često dipfejk video snimci prikazuju ljude kako čudno trepću ili prave čudne pokrete očiju. Studija objavljena na „arXiv-u“ Univerziteta Kornel koristila je detekciju treptanja oka kako bi utvrdila da dipfejk lica ne trepću pravilno.

Kvalitet audio/video zapisa: Mnogi dipfejk video zapisi pokazuju nesklad između audio i video podudaranja – na primer, video ruskog predsednik Vladimira Putina (koji je preveo Rojters) tvrdi da je postignut mir s Ukrajinom, ali pokreti njegovih usana ne odgovaraju zvuku.

Izvori: Kako dipfejkovi postaju uverljiviji, jedan od najboljih načina da se uoči da li su lažni je provera njihovog izvora, iako društvene mreže to malo otežavaju jer svako može da deli video zapise i slike. Originalni izvor videa predsednika Džoa Bajdena trebalo bi da bude Bela kuća, zvanična vladina agencija ili verodostojna novinska platforma.

Usavršavanje veština detekcije: Postoji nekoliko veb stranica posvećenih pomoći ljudima da poboljšaju veštine u otkrivanju dipfejkova. „Detect fakes“ MIT-a je kratki kviz koji korisnicima omogućava da uporede dva videa kako bi odlučili koji je pravi. „Spot the deepfake“ kompanije Majkrosoft je kviz sa 10 pitanja koji korisnicima omogućava da otkriju znakove poput pokreta očiju i emocionalne reakcije kako bi odredili dipfejkove.

Nakon što je predsednik Džo Bajden objavio saopštenje o ponovnom izboru u aprilu 2023, Republikanski nacionalni komitet je objavio video sa AI-generisanim slikama koje prikazuju apokaliptični drugi mandat Bajden-Heris. Video – deo kampanje „Pobedi Bajdena“ – prikazuje slike zapuštenih, srušenih zgrada na Vol stritu, rat i eksplozije na Tajvanu i policiju u punoj opremi kako brani San Francisko od kriminala. Izvršni direktor Nacionalnog komiteta Demokrata Sem Kornel napisao je u tvitu da je upotreba AI Republikanaca bila očajna, i da „nisu imali izbor osim da pitaju AI za pomoć“.

Nekoliko dipfejkova Trampa su postali viralni, uključujući lažne slike kako beži od vlasti ispred sudnice, video u kojem tvrdi da se Džefri Epstajn – koji je nađen mrtav u ćeliji 2019. dok je čekao suđenje zbog optužbi za seks trafiking – nije ubio, kao i sliku na kojoj kleči pod svetlima reflektora, a koji je i sam podeli na mrež Truth Social. Na slici mu je nedostajao prst.

Arijana Džonson, novinarka Forbes