Da li su naučnici na putu da naprave AI poligraf?

Inovacije Forbes 28. apr 2025. 07:00
featured image

28. apr 2025. 07:00

Autor: Džon Verner, Institut za tehnologiju Masačusets (MIT)

Sa svim stvarima koje veštačka inteligencija danas može da uradi, logično je da se zapitamo da li ova tehnologija može da u potpunosti promeni oblast analiziranja ljudi u potrazi za sumnjivim izjavama – ukratko, za lažima.

Poligraf je, po svim standardima, postao dinosaurus. Igla povezana s trakom oko ruke, koja ispisuje papirnu traku sa vitalnim znacima i telesnim reakcijama osobe, neće biti naročito precizna u otkrivanju laži. Zato rezultati poligrafa često nisu prihvaćeni kao dokaz na sudu, iako su, nažalost, poslali više od jednog nevinog čoveka u zatvor.

Nasuprot tome, veštačka inteligencija je snažan motor za obradu podataka koji funkcioniše na principu potpune posmatranosti. To znači da naučnici imaju više mogućih pravaca za primenu AI u otkrivanju istine.

Jedan od pristupa bio bi analiziranje reakcija vitalnih znakova kod ispitanika na način sličan poligrafu, ali uz mnogo detaljniju i precizniju komparativnu analizu.

Drugi pristup uključuje upotrebu jezičkih tokena za analizu onoga što ljudi zaista govore, uz primenu logike i rezonovanja.

Postoji stara izreka da jedna laž vodi ka drugoj, i da se čovek na kraju uhvati u mrežu laži, jer je istina najjednostavnija za opisivanje.

U svakom slučaju, trenutno se intenzivno radi na primeni AI u ovu svrhu.

Laboratorijska otkrića

Tekst MIT Technology Review-a iz prošle godine opisuje rad Alicije fon Šenk i njenih kolega sa Univerziteta u Vircburgu u Nemačkoj, naučnika koji su sproveli probu AI sistema za hvatanje lažnih izjava.

Došli su do zaključka da AI može otkriti laž u 67% slučajeva, dok ljudi uspevaju samo u 50% slučajeva.

Ova matematika deluje pomalo čudno, jer ako tražite binarni rezultat – laž ili istina – pogodili biste 50% vremena čak i bez ikakve analize.

Samim tim, 67% nije naročito impresivan rezultat.

Naučnici su, međutim, ukazali na još važniji problem – u trci za što većom preciznošću u otkrivanju laži, mogli bismo ozbiljno narušiti vitalni sistem poverenja koji je temelj ljudskog društva.

Poligraf
Shutterstock/Allycreations

Narušavanje poverenja

„Na neki način, ovo je dobra stvar – ovi alati mogu nam pomoći da lakše prepoznamo laži sa kojima se susrećemo, poput dezinformacija na društvenim mrežama“, piše Džesika Hamzelu za MIT. „Ali nije sve pozitivno. Ovo bi takođe moglo potkopati poverenje, koje je fundamentalni aspekt ljudskog ponašanja i odnosa. Ako cena tačnijih procena bude narušavanje društvenih veza – da li je to zaista vredno?“.

Drugim rečima, ne želite sistem za detekciju laži koji je previše precizan. Ili bar ne želite da ga univerzalno primenjujete na lične interakcije.

Ispostavlja se da su ljudi u nekim aspektima mnogo suptilniji nego što to sami sebi priznajemo.

Fon Šenk takođe daje napomenu o potrebi za širim testiranjem:

„S obzirom na količinu lažnih vesti i dezinformacija koje se šire, ove tehnologije mogu imati koristi. Ali morate ih temeljno testirati – morate biti sigurni da su značajno bolji od ljudi“.

Dakle, možda još nismo spremni za AI poligraf.

Analiziranje analitičara

Dok sam istraživao ovu temu, naišao sam na još jedan aspekt s kojim se istraživači susreću u radu sa AI, a koji ulazi u kompleksan svet simuliranih emocija.

Naime, istraživački timovi su otkrili da AI sistemi mogu pokazivati „znake anksioznosti“ ako im se daju ljudski odgovori vezani za rat i nasilje.

Konkretno, naučnici su primenili nešto što se zove Indeks stanja-trajanja anksioznosti (State-Trait Anxiety Index) na ove interakcije. Ovaj indeks koristi dve grupe elemenata. Izjave koje se odnose na trenutno osećanje osobe i izjave koje opisuju opšte stanje osobe. U upitniku se nalaze tvrdnje poput „Osećam se pod stresom“, „Osećam se zbunjeno“, kao i druge izjave na koje ispitanici odgovaraju po četvorostepenoj skali, poput „Generalno ne verujem onome što čujem“ ili „Često osećam sumnju“.

Anksioznost veštačke inteligencije?

Izgleda da AI može odgovoriti sa indikatorima anksioznosti nakon razgovora o zastrašujućim temama.

Može se pretpostaviti da je ova „anksioznost“ kod AI posledica toga što pretražuju podatke iz treninga sa interneta. I zaključuju da ljudi postaju anksiozni kada razgovaraju o nasilju, pa to ponašanje imitiraju.

Iako AI sistemi nemaju prirodno ove kompleksne emocije, neki istraživači smatraju zanimljivim što mašine mogu pokazivati takve reakcije.

To nas navodi na razmišljanje o razlici između ljudske socijalne interakcije i AI odgovora. D li nam novi upitnici i mašine samo govore ono što želimo da čujemo?

U svakom slučaju, izgleda da još uvek postoje brojna područja – poput laganja i širenja straha – koja su pre svega u domenu ljudi, a ne mašina. Bar za sada, dok polako prepuštamo teren AI u oblastima poput inteligencije i kreativnosti. Tokom godine verovatno ćemo se sve više baviti teorijom igara kako bismo procenili da li će AI pokušati da vara i obmanjuje ljude. Ličnosti poput Alana Turinga i Džona Neša postavile su temelje za ovakve interakcije. Sada moramo primeniti objektivnu analizu na ove ideje koje se sve više realizuju u praksi. Da li smo spremni?