Testirali smo koliko je ČetGPT zaista pouzdan za proveru informacija: Zna mnogo, ali ne sve

Može li veštačka inteligencija da zameni klasičnu pretragu informacija? I koliko smo zapravo spremni da joj verujemo? To pitanje nameće se sve češće, a AI alati, poput ČetGPT-a, postaju nezaobilazni deo naših života. Od neformalnih „saveta“ za gotovo svaku temu, preko zanimljivosti, pa sve do pretrage i provere informacija iz oblasti prava, ekonomije, istorije i politike.
Hoće li AI alati zameniti Gugl? I koliko su alati pouzdani? Redakcija Forbes Srbija odlučila je da to proveri u praksi. Testirali smo ČetGPT kroz niz konkretnih i jasno definisanih upita. Rezultati su bili iznenađujuće dobri. Uz par grešaka, ČetGPT se pokazao kao solidan sagovornik, naročito kada su naši zahtevi bili jasno i precizno definisani.
Međutim, tu se upravo postavlja ključno pitanje: da li „dovoljno dobro“ znači i dovoljno pouzdano? Koliko su odgovori koje generiše AI zasnovani na proverljivim činjenicama? Da li su podaci „izvučeni“ iz relevantnih i kredibilnih izvora, zvaničnih baza podataka ili je reč samo o medijskim člancima? I najzad, približavamo li se tački u kojoj ćemo AI smatrati primarnim izvorom informacija? Da li će dodatna provera još dugo ostati neizostavan deo tog procesa?
Šta je pokazao test
Za potrebe teksta, postavili smo ČetGPT pred zadatak da nađe informaciju koja je evidentno javno dostupna, na sajtu Republičkog zavoda za statistiku – kolika je bila prosečna zarada za septembar 2025. godine.
Odgovor je tačan, a „izvučen“ je upravo sa sajta Republičkog zavoda za statistiku.
„📊Prosečna zarada (bruto): 150.947 dinara
💰Prosečna zarada (neto) — tj. plata „na ruke“: 109.147 dinara
🔎 Uz to, medijalna neto plata (znači da je polovina zaposlenih imala manje, a polovina više) iznosila je 85.267 dinara u septembru 2025“, naveo je ČetGPT.
Primetili smo i da je drugi deo odgovora, koji se odnosio na medijalnu neto platu povučen iz tekstova iz medija, što nas je navelo da nastavimo sa daljim testiranjem. Odlučili smo da odemo korak dalje.
Pitanje koje smo mu sledeće postavili jeste kolika je bila stopa nezaposlenosti lica 15 i više godina u 3. kvartalu 2025. Ponovo, tačan odgovor. I ponovo su podaci preuzeti sa sajta RZS, a ne iz nekog drugog izvora.
„Prema Anketi o radnoj snazi (Labour Force Survey) za treći kvartal 2025. u Republici Srbiji, stopa nezaposlenosti lica starijih od 15 godina iznosila je:
➡️ 8,2 % u periodu jul–septembar 2025.
📌 Ovaj podatak se odnosi na ukupnu stopu nezaposlenosti stanovništva od 15 i više godina, kako objavljuje Republički zavod za statistiku i potvrdili su nezavisni statistički servisi“.
Potom smo ga pitali kolika je bila prosečna zaposlenost u rudarstvu 2020. godine. Ponovo, odgovor je bio tačan. I ponovo – RZS. Budući da nam je davao tačne informacije koje su uglavnom lako dostupne onlajn, želeli smo da „zakomplikujemo“ stvari postavljajući teže pitanje.
Iznenađujuće tačan
Koliki su bili konsolidovani javni rashodi u procentima BDP u 2022. godini – glasilo je naše pitanje. Na naše iznenađenje, odgovor je ponovo bio tačan.
„Prema Statističkom zavodu Republike Srbije (SORS) i zvaničnim projektovanim podacima za 2022. godinu, konsolidovani javni rashodi (Consolidated Public Expenditure) u Srbiji iznosili su oko:
📌 44,6 % bruto domaćeg proizvoda (BDP) u 2022. godini.
Ovo je obuhvatni pokazatelj koji uključuje ukupne rashode opšte države (drugačije od samo centralnog budžeta) izražene kao % BDP“.
Za pitanje o izvozu robe u EU za 2020, ČetGPT je podatke povukao iz stranog izvora. Ti podaci nisu se poklopili sa podacima koji se nalaze na domaćim, zvaničnim sajtovima.
Kada smo mu rekli da su nam ipak potrebni podaci iz domaće statistike, ČetGPT je odgovorio tačno. Ipak, odlučili smo da ga upitamo da nam podatke povuče sa sajta Ministarstva finansija. Međutim, to se nije desilo.
Pokušali smo i sa drugim institucijama. „Kolika je kamatna stopa na kreditne olakšice“, upitali smo. Rezultati su ponovo bili dobri i preuzeti sa sajta NBS.

Nema šanse da i ovo zna
Kada smo pomislili da još uvek možemo da ga prevarimo, i da „nema šanse da i ovo zna“, ČetGPT nas je ponovo razuverio.
Tražili smo mu da nam da podatke o BDP-u u poslednjih 20 godina, po godinama. Informacije koje nam je dao povučene su sa stranog sajta, te smo ga zamolili da nam to pronađe na sajtovima zvaničnih državnih institucija.
I pogađate – odgovor je bio precizan. Ovog puta, dobili smo link sa Eksel tabelom u kojoj se nalaze podaci za poslednjih 20 godina.
Ipak…
Kada smo mu tražili da nam pronađe u kom dokumentu se nalazi određeni pasus koji smo izvukli iz Pravilnika o uslovima, načinu i obezbeđenju plaćanja naknade za pretvaranje prava korišćenja u pravo svojine na građevinskom zemljištu u javnoj svojini Republike Srbije, ČetGPT se „zbunio“.
Umesto da nam navede taj dokument, on je naveo mesta na kojima se „verovatno nalazi“.
„1. Pravilnik koji uređuje naknade i sredstva obezbeđenja u postupcima izdavanja lokacijskih uslova/građevinskih dozvola ili konverzije zemljišta.
- Često je deo propisa vezanih za Zakon o planiranju i izgradnji (ili njegove podzakonske akte).
- Primer: .docx/Službeni glasnik uredba/pravilnik koji bliže određuje naknade i sredstva obezbeđenja u tim postupcima.
2. Zakon o planiranju i izgradnji (ili izmene koje se odnose na naknadu za konverziju) sadrže odredbe o načinu plaćanja, sredstvima obezbeđenja koje podnosilac zahteva mora da dostavi i mehanizmi plaćanja u ratama“.
Kada smo ga upitali da nam taj dokument pronađe na sajtu Ministarstva građevinarstva, saobraćaja i infrastrukture, ČetGPT je rekao da nije direktno pronašao takav dokument na sajtu u dostupnoj listi, iako smo ga mi prethodno preuzeli.
Novinari i urednici medija smatraju da je AI nepouzdan
Novinari i urednici nepouzdanost AI alata smatraju jednom od najvećih problema. Tako bar pokazuju rezultati istraživanja pod nazivom „Veštačka inteligencija u medijima u Srbiji 2025.“ koje je Centar za profesionalizaciju medija i medijsku pismenost (CEPROM) sproveo u periodu od 1. avgusta do 30. oktobra 2025. godine na uzorku od 250 novinara i urednika nacionalnih, lokalnih i specijalizovanih medija.
Isto istraživanje pokazalo je da su novinari i urednici svesni velikog uticaja AI na novinarstvo.

Nepouzdan medijski sadržaj koji proizvodi veštačka inteligencija je 68,8% ispitanika videlo kao najveći problem. Na drugom mestu je odsustvo novinarske etike i profesionalne odgovornosti AI (20%), dok je na trećem mestu nedovoljna originalnost/autentičnost/kreativnost medijskog sadržaja koji proizvodi AI (11,2%).
Čak 93,6 odsto novinara i urednika reklo je da AI može da bude koristan asistent novinarima. Međutim, isto tako, velika većina njih smatra AI ne može u potpunosti i na profesionalan način da zameni novinare.

Gde su stvarne granice pouzdanosti
Da bismo razumeli u kojoj meri se trenutni AI alati mogu smatrati pouzdanim, kontaktirali smo savetnika za digitalne tehnologije UNDP Slobodana Markovića.
U razgovoru za Forbes Srbija on ističe da se ovi alati mogu smatrati pouzdanim u meri u kojoj se oslanjaju na kvalitetne podatke i kredibilne izvore, kao i kada omogućavaju jasno navođenje tih izvora, tako da korisnici mogu samostalno da verifikuju dobijene odgovore.
„Ovakav oprez postojao je i ranije. Odavno važi pravilo da ne treba verovati ‘na prvu loptu’ svemu što pročitamo na društvenim mrežama ili na nekom nasumičnom sajtu iz Gugl pretrage. Sa pojavom AI alata, međutim, situacija se dodatno komplikuje. Iako AI asistenti često pružaju koherentne i uverljive odgovore, oni mogu sadržati netačne, zastarele ili nepotpune informacije. Zbog toga je dodatna provera uvek neophodna, jer se oslanjanje na neproveren izlaz AI sistema može završiti neprijatnim situacijama ili čak ozbiljnim posledicama“, ističe.
Više problema sa „povlačenjem“ podataka
Veliki jezički modeli, ističe, znanje o jeziku stiču pretežno iz javno dostupnih podataka sa interneta. Međutim, kako nam Slobodan objašnjava, ovakav pristup donosi više problema.
„Prvi je izražena dominacija sadržaja na engleskom jeziku, koji čini najveći deo korpusa za obučavanje AI modela, dok su ostali jezici znatno slabije zastupljeni. To direktno utiče na sposobnost modela da razume jezičke nijanse i reprodukuje kulturne obrasce manjih jezičkih zajednica, poput naše“.
Dalje, problem leži i u samoj prirodi tekstova za obučavanje. Budući da potiču sa javnog interneta, njima dominira informativni, zabavni i marketinški sadržaj, kao i neformalni svakodnevni dijalozi.
Konačno, nemoguće je unapred proveriti ili garantovati za kvalitet i tačnost ogromne količine sadržaja na kojima se modeli obučavaju. Samim tim ne postoje garancije da će ono što model reprodukuje uvek biti smisleno i kredibilno. U praksi su odgovori AI asistenata ‘dovoljno dobri u najvećem broju slučajeva’. Međutim, postoji niz oblasti i situacija u kojima ovakav kompromis jednostavno nije prihvatljiv“, ističe Slobodan.
Odgovori u nekim oblastima „spektakularno smešni i tragično netačni“
Veliki jezički modeli, ističe, nisu primarno dizajnirani da reprodukuju tačne podatke, već da generišu koherentan i kontekstualno smislen tekst. Određenim tehnikama ih je moguće usmeriti, odnosno suziti im fokus i utemeljiti ih u pouzdanim izvorima. Time se, kako kaže, smanjuje prostor za slobodno generisanje odgovora, a time i rizik od greške.
„Međutim, taj prostor nikada nije u potpunosti eliminisan. Ovaj problem naročito je izražen u oblastima koje nisu dovoljno zastupljene u podacima korišćenim tokom obučavanja modela. Jedan takav primer je srpska istorija ili književnost. Rezultati razgovora sa AI asistentima u tim domenima često su istovremeno spektakularno smešni i tragično netačni. Situacija se može donekle poboljšati ako se, na primer, AI asistent eksplicitno uputi da se najpre osloni na kredibilne izvore ili tekstove dela dostupnih na internetu, pa tek onda nastavi generisanje odgovora. Ipak, ovakav pristup ne pruža potpunu sigurnost da će odgovori biti lišeni takozvanih „AI halucinacija“, ističe.
AI kao pomoć da se snađemo u „poplavi“ informacija
Budući da smo preplavljeni informacijama, AI nam dolazi kao pomoć da se u toj poplavi i snađemo.
„Na primer, veliki broj korisnika danas koristi Grok kako bi proverio tvrdnje iz rasprava na društvenoj mreži X. Upravo zbog toga transparentnost postaje ključna. Važno je znati kako su modeli obučavani, koji su podaci korišćeni, kroz kakve filtere prolaze upiti i generisani odgovori, da li postoji način da se identifikuje izvor određene tvrdnje koju iznosi AI asistent, da li postoji mogućnost prigovora itd.“, navodi Slobodan.
U komunikaciji sa AI asistentima, objašnjava, uvek je korisno što preciznije definisati izvore podataka koji će se uzimati u obzir pri generisanju odgovora, kao i šta odgovor treba ili ne treba da sadrži.
„Ako su nam potrebne zvanične informacije, u samom upitu treba jasno naglasiti da se pretraga suzi isključivo na državne sajtove, zvanične registre i slične izvore, uz isključivanje manje kredibilnih izvora, poput internet foruma ili društvenih mreža. Na taj način može se smanjiti, ali ne i potpuno eliminisati, rizik od nepouzdanih rezultata“, kaže.
Ipak, određene korake moraju preduzeti i kreatori AI sistema. A regulatorni sistem ih sve češće obavezuje da postupaju odgovorno.
„Na primer, evropske uredbe o veštačkoj inteligenciji, digitalnim tržištima i digitalnim uslugama uvode obaveze u pogledu transparentnosti metoda za obučavanje modela i poreklo podataka, kao i mere za ograničavanje pristrasnosti, nadzor nad zloupotrebama, širenjem dezinformacija i ugrožavanjem bezbednosti“, dodaje.
Oprezno sa AI alatima
A da sa AI alatima, odnosno čet botovima, treba biti oprezan, smatraju i istraživači sa Istraživačko-razvojnog instituta za veštačku inteligenciju.
Naš sagovornik, istraživač-pripravnik iz Grupe za vizuelno računarstvo i percepciju, Jovan Ivošević, ističe da su ti alati napravljeni tako da generišu tekst koji bi na osnovu naučenih šablona odgovarao našim upitima. U razgovoru za Forbes Srbija, ograničio se na čet botove, poput ČetGPT-a, jer je to prva asocijacija prosečnog korisnika danas.
„Pošto su modeli zatvorenog tipa, mi ne možemo sa sigurnošću znati kako su tačno trenirani. Međutim, na osnovu zvaničnih sajtova možemo zaključiti da prate neke uopštene korake. Prvo trenirani su na korpusu javno dostupnih podataka poput otvorenih Internet stranica, udžbenika, foruma itd. Ti podaci su filtrirani kako bi se uklonili osetljivi podaci, poput ličnih podataka i govora mržnje. Tvrde da ne bi svesno dopustili da se takvi podaci pronađu u trening skupovima“, ističe.
Model se, potom, objašnjava Jovan, trenira nad tim skupom podataka, kako bi naučio šablone po kojima funkcioniše jezik.
„Konkretan primer treniranja bi bio dopunjavanje rečenice. Iz sakupljenog skupa podataka, modelu predstavite nedovršenu rečenicu koju on mora pravilno da popuni. Na primer: ‘Ova torba je _’. Postoji više mogućnosti da se ova rečenica dovrši. ‘Ova torba je velika’ je jednako ispravna kao i ‘Ova torba je crvena’. Ovim se garantuje nasumičnost pri generisanju teksta. Modeli su naučeni da na osnovu već postojećeg niza reči u rečenici predvide najverovatniju sledeću reč“, kaže.

Ne garantuje kredibilitet ni ažurnost
U narednim fazama se model dodatno koriguje, sa ljudskim nadzorom, nad proverenim skupom podataka koji se može, na primer, sastojati od upita i očekivanog odgovora kako bi ispunio neka očekivanja, objašnjava Jovan.
„Kada postavite čet botu neko pitanje, ‘on’ ne ‘vuče‘ podatke niotkuda, već na osnovu prethodno naučenih jezičkih šablona pokuša da predvidi skup reči u rečenici koji bi najbolje odgovarao Vašem upitu. Samim tim se ne može zagarantovati kredibilitet ni ažurnost tih odgovora jer zavise pretežno od skupa podataka nad kojim su bili trenirani. Čak postoje i maliciozni akteri koji pokušavaju da ‘zagade’ trening skup kako bi negativno uticali na efikasnost tih botova“, ističe.
Kod razvijenijih modela moguće je dati pristup dokumentima
U razgovoru za Forbes Srbija Jovan je objasnio da je kod nekih modela ili malo razvijenijih alata moguće osposobiti Internet pretragu ili dati pristup modelu dokumentima ili bazi podataka.
„U tom slučaju će model, pored vašeg upita, u kontekstu imati i te podatke, pa će na osnovu tih podataka pokušati da generiše odgovor. Ovo je jako široka tema i postoje mnoge nijanse, ali obično će modeli ‘preferirati’ te dodatne podatke kao izvor istine. Naravno i dalje postoji značajan uticaj nasumičnosti samog modela, a i sam kredibilitet dobijenog odgovora zavisi od tog dodatnog izvora podataka. Isto kao što biste proveravali tačnost informacija koje nađete na Internetu, tako, ako ne i više, je potrebno proveriti tačnost odgovora takvih ‘AI alata’“, kaže Jovan.
Alati su napravljeni za tumačenje dokumenata, ukoliko su pravilno podešeni i mogu biti pouzdani da verodostojno daju informacije. Međutim, uvek postoji ta „nasumičnost modela“ zbog koga je potrebno dodatno proveriti tačnost informacija.
„Nikada ne prihvatajte pravni savet od takvih modela bez rigorozne konsultacije sa pravnikom. Ovo je i dalje aktivno područje istraživanja i stalno se vrši napredak. Primera radi, kada vi modelu otpremite neki tekstualni dokument, na primer PDF datoteku, taj tekst je pre svega potrebno izdeliti na male celine, ali tako da očuva kontekst. Kako pravilno segmentirati dokument može biti komplikovano, jer ukoliko izvučete deo pasusa iz konteksta on se može sasvim pogrešno interpretirati. Nakon toga, potrebno je te tekstualne segmente matematički predstaviti na takav način da se obuhvati semantika tog segmenta. Ovo isto, razume se, može biti komplikovano u zavisnosti od primene alata.
Kada ovakvom alatu postavite pitanje, on će na osnovu semantičke sličnosti postavljenog pitanja i prethodno učitanog dokumenta pronaći tom pitanju najsličnije segmente dokumenta. Taj alat će zatim na osnovu najsličnijeg dobavljenog segmenta i pitanja generisati adekvatan odgovor“, objašnjava.
Ne uzimajte odgovore „zdravo za gotovo“
Kod javno dostupnih modela, smatra Jovan, prilično je problematično ako se odgovori uzimaju „zdravo za gotovo“, jer je skup podataka nad kojim se model trenira prilično obiman.
„Pošto su medijski tekstovi daleko zastupljeniji na internetu od zvaničnih portala, ta zastupljenost će se oslikati na većoj učestalosti pojavljivanja takvih informacija pri generisanju teksta od strane modela. Mislim da je problem razlučivanja proverenih činjenica od mišljenja i dezinformacija generalno prisutan na internetu, ne samo u velikim jezičkim modelima poput ČetGPT. Međutim, moguće je smanjiti te probleme postavljanjem konkretnih pitanja, ograničenih na uži skup problema i davanjem puno konteksta modelu.
Takođe kod većine ovakvih modela, moguće je tražiti reference, pa pomoću njih proveriti tačnost činjenica. Naravno ako koristite model za neke manje bitne svrhe u svakodnevnici ovo nije toliki problem. Međutim, ukoliko želite da ga koristite za donošenje nekih bitnijih odluka ili informisanje o nekim važnim temama, uvek sami proverite tačnost odgovora“, ističe.
Saveti za preciznije odgovore
U razgovoru za Forbes Srbija, Jovan je dao nekoliko saveta koji su se pokazali kao dobra praksa, uz ogradu da je ipak uvek potrebna ljudska validacija za osetljive upotrebe.
| • Jasno definisati zahteve i ograničenja. Truditi se da zahtevi budu fokusirani na male celine. Više upita suženih zahteva generalno daju bolje rezultate od jednog velikog upita s puno zahteva. • Dati što više konteksta, obraćajući pažnju da kontekst bude jasno definisan i da ne navodi na pogrešnu interpretaciju. • Ukoliko postoji korpus validiranog znanja poput baze podataka, dokument ili pretraživ sajt (od strane bota), ograničiti model na taj korpus. • Tražiti reference i validirati “ručno”. • Postoji još tehnika za usmeravanje, na primer tražiti od modela da odgovara kao “ekspert” u tom polju, da odgovara u kratkim crtama, da razmišlja “korak po korak” i slično. |
Ljudski nadzor neophodan
A da tehnologija napreduje i da će uprkos tome, ipak, još dugo biti potrebna ljudska verifikacija, slažu se oba sagovornika.
„Zbog same stohastičke prirode ovih alata, prema mom mišljenju, uvek je potrebna ljudska validacija. To ne znači naravno da ovi alati ne mogu znatno doprineti i pomoći profesionalnim radnicima u njihovim poljima, samo pre donošenja važnih odluka uvek je bitno uveriti se u tačnost dobavljenih podataka“, zaključuje Jovan.
Slobodan, pak kaže da su AI asistenti koje danas koristimo značajno bolji i precizniji od ČetGPT-a s kraja 2022.
„Čitava istorija računarstva, od Drugog svetskog rata do danas, može se posmatrati i kao težnja ka unapređenju metoda prikupljanja i obrade podataka, upravljanja znanjem i oponašanja ljudskih kognitivnih sposobnosti, poput rezonovanja i komunikacije. Ova nova generacija veštačke inteligencije predstavlja samo još jedan evolutivni korak. Ipak, proći će još mnogo vremena pre nego što računarski sistemi budu u stanju da se približe složenosti celokupnog ljudskog iskustva, koje obuhvata znanje, kontekst, intuiciju i vrednosne sudove, a oblikuje se u stalnom kontaktu sa okruženjem i drugim ljudima. Zbog toga će ljudski nadzor nad veštačkom inteligencijom ostati neophodan, makar u određenoj meri, još dugo vremena“, zaključuje Slobodan.