Predatori uz pomoć AI prave slike dece i kače na Tiktok i Instagram: Prijavite naloge koje primetite
Slike AI dece na Tiktoku i Instagramu postaju magneti za mnoge koji imaju seksualna interesovanja vezana za maloletnike. Ali kada je ovaj sadržaj legalan i prikazuje lažne ljude, upada u neurednu, zabrinjavajuću sivu zonu.
(Tekst sadrži informacije o uznemirujućem sadržaju na društvenim mrežama)
Devojčice na fotografijama na Tiktoku i Instagramu izgledaju kao da imaju pet ili šest godina. One starije, ni 13.
Na slikama su obučene u čipku i kožu, u bikini i kratke majice. Obučene su kao medicinske sestre, superheroji, balerine i francuske sobarice. Neke nose zečije uši ili đavolje rogove, druge kikice i prevelike naočare. Tu su crnkinje, belkinje, azijatkinje, plavuše, crvenokose i brinete. Sve fotografije su napravljene uz pomoć veštačke inteligencije i počele su da privlače pažnju problematične publike na najvećim društvenim mrežama na svetu – starijih muškaraca.
„AI stvara sjajna umetnička dela: voleo bih da imam takvu lepu malu devicu u svojim rukama da bude moja“, komentarisao je jedan korisnik Tiktoka nedavnu objavu mladih plavokosih devojaka koje su obučene kao služavke, sa mašnom oko vrata i cvećem u kosi.
„Ako je ovo generisala veštačka inteligencija, da li sam loš ako kažem da je zgodna?“, napisao je drugi tiktoker na slajdšou potpuno obučenih devojčica u kostimima Spajdermena“.
„Ona nije stvarna, ali ja imam sjajnu maštu“.
„Ni u jednom slučaju ne bi trebalo da bude pogrešno“, odgovorio je drugi korisnik, čije je korisničko ime sadržalo „p3do“, što može da bude šifrovani jezik za „pedo“(pedofiliju).
„Ne možete da je povredite jer je to fotografija generisana veštačkom inteligencijom“, rekao je još jedan.
Slične primedbe su preplavile AI fotografije dece na Instagramu.
„Voleo bih da joj oduzmem nevinost, iako je fotografija lažna“, napisala je jedna osoba na objavi mlade, blede devojčice koja je bila obučena kao mlada.
Drugu fotografiju, na kojoj je bila prikazana devojčica u kratkim pantalonama, komentarisao je isti korisnik „njen slatki par malih [grudi]“, uz smajlije na kojima su bile prikazane dve jabuke, „i njen savršeni nevini komad pite od višanja ispod“.
A na slici devojčice u predtinejdžerskoj dobi sa špagericama, neko po imenu „Geri“ je rekao: „Lepi mali pupoljci. Kad odraste biće dinje dobre veličine“.
Skandalozni komentari na mrežama Tiktok i Instagram „Izgleda ukusno“. „Obavljate li dostavu na kućnu adresu?“ „Savršene godine koje treba iskoristiti“. „Želim tu slatku bebu“. „Možeš li da mi napraviš test u kome će ona da skoči iz telefona u moj krevet?“ |
Forbes je pronašao na stotine objava i komentara poput ovih na slikama dece generisane uz pomoć AI samo iz 2024. godine. Mnoge fotografije su bile označene muzičkim hitovima – kao što su Bijonsin „Teksas holdem“, hit Tejlor Svift „Šejk it of“ i Trejsi Čepmen „Fast kar“ – kako bi im pomogli da dođu do što većeg broja pregleda.
Dečiji predatori su vrebali gotovo svaku veliku društvenu mrežu – gde mogu da se sakriju iza ekrana i anonimnih korisničkih imena – ali popularnost Tiktoka i Instagrama među tinejdžerima i maloletnicima učinila je ove platforme glavnim destinacijama.
Iako se borba za suzbijanje materijala o seksualnom zlostavljanju dece (ili CSAM) vodi već neko vreme, pre nego što je AI postala toliko razvijena, AI generatori za pretvaranje teksta u slike sada još više olakšavaju predatorima da pronađu ili kreiraju upravo ono što traže.
Ovi alati su doveli do porasta AI-generisanog CSAM-a, što je nezakonito, iako je lažno. Ali slike otkrivene u izveštavanju o ovoj priči spadaju u sivu zonu.
Nisu eksplicitne, ali su seksualizovane. Prikazuju maloletnike, ali ne stvarne. Čini se da su legalne, ali komentari na njima sugerišu opasne namere. Stručnjaci za bezbednost dece i forenziku opisali su ih kao portale ka mnogo tamnijoj, i potencijalno kriminalnoj, aktivnosti. To postavlja pitanja u domenu tehnologije i pravosuđa o tome kako treba postupiti sa pojavom sugestivnih, lažnih slika dece koje ne postoje – ili da li ih uopšte treba adresirati ako nisu eksplicitne i legalne.
Tehnološke kompanije, prema saveznom zakonu, moraju da prijave sumnju na CSAM i seksualno iskorišćavanje dece na svojim platformama Nacionalnom centru za nestalu i zlostavljanu decu, neprofitnoj organizaciji koja prosleđuje informacije o toj nezakonitoj aktivnosti telima za sprovođenje zakona.
Ali nije obavezno da se označi ili ukloni slika poput onih opisanih u ovoj priči. Ipak, NCMEC je za Forbes rekao da veruje da bi društvene mreže mogle da ih uklone – čak i ako su legalne.
„Sve ove tehnologije se treniraju na osnovu slika stvarne dece, bilo da su prikazane u potpunosti ili ne, tako da NCMEC zapravo ne vidi tu stranu argumenta da postoji svet u kojem je ovo u redu“, rekla je Felon Meknalti, direktorka organizacije Sajber Tiplajn, centralne tačke za prijavljivanje tehnološkim kompanijama.
Nedavno istraživanje koje je sproveo Stenford Internet opservatorijum otkrilo je da je jedan od najpopularnijih alata za generisanje slika uz pomoć teksta na tržištu danas, Stejbl Difjužn 1.5, treniran na CSAM-u, na fotografijama stvarne dece, koje su prikupljene sa različitih delova interneta.
„Posebno ako se uzmu u obzir neki od komentara da su fotografije privlačne, to ne zvuči kao da je publika koja želi da pogleda i konzumira takav sadržaj nevina“, dodala je Meknalti.
„Nadam se da ću videti da taj sadržaj uklanjaju i da ne stvaraju prostor na svojim platformama za pojedince da seksualizuju decu“.
TikTok i Instagram trajno su uklonili naloge, videozapise i komentare koji se spominju u ovoj priči nakon što je Forbes postavio pitanje o njima, obe kompanije su rekle da su prekršili pravila platforme.
„Tiktok ima strogu politiku protiv AI-generisanog sadržaja kako bi zaštitio mlade ljude i držao Tiktok neprijateljskim prema ponašanju koje nastoji da im naškodi“, rekao je portparol Džejmi Favaca.
U petak je kompanija donela novu politiku o sintetičkim medijima koja zabranjuje takav sadržaj ako sadrži lik bilo koga ko je mlađi od 18 godina, i uklanja objave koje krše njena pravila, bez obzira na to da li su izmenjeni veštačkom inteligencijom.
Sofi Vogel, portparolka Instagram matične kompanije Meta, rekla je da kompanija ne dopušta i uklanja stvarne materijale i materijale generisane veštačkom inteligencijom koje seksualizuju ili iskorišćavaju decu.
U slučajevima kada se čini da je sadržaj bezopasan, oni i dalje uklanjaju naloge, profile ili stranice posvećene deljenju slika dece ili komentare koji se odnose na njihov izgled, rekao je Vogel. I Tiktok i Meta prijavljuju NCMEC-u AI-generisan CSAM koji pronađu na svojim platformama.
Ulaz ka nezakonitom sadržaju
Jedan popularni kreator fotografija dece generisanih putem AI imao je 80.000 pratilaca na Tiktoku i Instagramu, broj koji se povećavao u hiljadama dok je Forbes pisao ovaj tekst.
U opisu naloga, napisanom na mandarinskom, stajalo je „Žena sa štapićima“. Forbes nije uspeo da utvrdi ko ga vodi, ali njegove najviralnije objave imaju gotovo pola miliona pregleda, lajkovani su više od 10.000 puta, podeljeni nekoliko hiljada puta i privukli su na stotine komentara.
Mnogi njegovi pratioci – na osnovu profilnih fotografija, imena, biografije i komentara – izgledali su kao stariji muškarci.
Stručnjakinja za digitalnu forenziku Heder Mačol Barnhart rekla je da su u svom dosadašnjem radu na ovim slučajevima „dečije pornografije“ pratioci često nudili jasne tragove koji bi istražitelje mogli da upute na potencijalne predatore.
„Dečija pornografija je prolaz“, rekla je za Forbes, a „kad pogledate ko je prati, to nije normalno“.
Ovi tipovi naloga takođe više izlažu potencijalne prestupnike jer su ohrabreni kada su javno dostupni.
„Ljudi se osećaju sigurnije jer deca nisu u potpunosti izložena, stoga nije CSAM“, rekao je Malik, koji vodi rad softverske kompanije Selebriti pomažući NCMEC-u i policiji da koriste njegovu tehnologiju u istraživanjima zlostavljanja dece. Naglasila je i da je od suštinskog značaja da policija pažljivije ispita ko prati ove naloge i traži obrasce ponašanja.
Tiktok nalog je podelio video sa uputstvima koji pratiocima pokazuju kako da generišu i usavrše sopstvene fotografije mladih devojaka.
„Iako sam mnogo godina stariji od tebe, čim sam ti video oči, zaljubio sam se“, pisalo je u komentaru na Tiktoku. Taj nalog pratio je druge naloge sa još sugestivnijim slikama dece.
(Drugi česti komentator, koji je davao primedbe poput „široko otvori“, vodio je nalog na kome je objavljivao prave devojke koje su se razgibavale i istezale u trikoima).
Neki komentatori objava na Tiktoku i Instagramu korisnika „Žena sa štapićima“ pitali su koji je AI model korišćen za izradu AI dece, sugerišući da bi mogli da budu zainteresovani za veću proizvodnju. („Ovo je neverovatno, voleo bih da pronađem aplikaciju koja bi ovo mogla da stvori“, napisao je jedan čovek pre nedelju dana Instagramu o mladoj plavuši u grudnjaku). U januaru je Tiktok nalog podelio trominutni video sa uputstvima koja pokazuju prijateljima kako da generišu i usavrše sopstvene fotografije.
Čini se da drugi komentatori nisu znali da su slike lažne, iako je kreator označio neke objave kao „AI-generisane“, kao što Tiktok zahteva, i može da bude teško da se golim okom uoči da nisu stvarne, što takođe otežava policiji da identifikuje stvarne žrtve. (Meta gradi alate kojima će moći da identifikuje slike koje su napravljene korišćenjem OpenAI, Middžurni, Majkrosoft, Gugl, Adobi i Šaterstok, a zatim će početi da označava AI-generisan sadržaj objavljen na Fejsbuku, Instagramu, Tredsu, prema rečima Vogela, portparola Mete).
Lojd Ričardson, direktor IT-a u Kanadskom centru za zaštitu dece, rekao je da, bez obzira na to da li su te fotografije veštačka inteligencija ili su stvarne, one su „ulaz za ozbiljniji ili legalni sadržaj, često na drugim platformama, koje onda predstavljaju jasan sigurnosni rizik za decu“.
„Ključni problem je da ovaj skup slika vodi ka mogućnostima umrežavanja za prestupnike“, rekao je Ričardson za Forbes, napominjući da će oni svoje razgovore često preneti u privatne poruke.
„Ove slike mogu da posluže kao putokazi za stvaranje veza prema CSAM-u na drugim kanalima“.
Prikaz slajdova na Tiktoku od 13. januara sa devojčicama u svilenim pidžamama pokazao je ovu vrstu kretanja napred-nazad u akciji. „Ovo funkcioniše“, napisala je jedna osoba u komentarima, na što je druga odgovorila: „Upravo sam ti poslala poruku“.
„Zbog toga kompanije ne mogu jednostavno da moderiraju sadržaj posmatrajući izolovano samo slike“, dodao je Ričardson.
„Mora da se uzme širi kontekst načina na koji se dele, gledaju i slede. Ovo je naravno veći izazov jer može da zahteva kontekstualnu procenu koja može da zahteva ljudsku moderaciju“. (Favaca, portparol Tiktoka, rekao je da koriste automatizaciju kako bi lakše označili moguće dokaze o predatorskom ponašanju).
Tiktok moćni algoritam takođe olakšava pronalaženje još više ovakvih slika onima koji imaju seksualni interes za decu. Dok je Forbes izveštavao o ovoj priči, Tiktok je počeo da preporučuje dodatne zahteve poput „AI-generisani dečaci“ i „AI-generisane devojčice“.
A Tiktok zid „Za vas“, na koji korisnici dospeju kada otvore aplikaciju i koji služi za viralne videozapise za koje Tiktok misli da nam se mogu svideti, osigurava da dođu do milijarde Tiktok korisnika.
Meknalti, iz NCMEC-a, rekao je da je jedan od najvećih rizika to što AI-deca imaju ovakve viralne objave na društvenim mrežama, čak i ako slike nisu ilegalne, a ljudi mogu da postanu ravnodušni prema tome koliko to može da bude opasno.
„Kao društvo“, postavlja pitanje, „hoćemo li jednostavno da se naviknemo na ovu vrstu sadržaja i da kažemo da je to u redu?“
Aleksandra Levin, novinarka Forbes