I Pentagon počeo da se „igra“ s veštačkom inteligencijom: Provera zaposlenih i čuveni „Mama test“
Agencija za kontraobaveštajnu i bezbednosnu zaštitu (DCSA), koja izdaje sigurnosne dozvole za milione američkih radnika, koristi veštačku inteligenciju kako bi ubrzala svoj rad. Međutim, „crne kutije“ nisu dozvoljene, navodi direktor agencije.
Pre nego što dozvoli da bilo ko od njegovih 13.000 zaposlenih u Pentagonu pretraži informacije o nekom američkom građaninu, direktor DCSA, Dejvid Katler, traži od njih da postave pitanje: „Da li moja mama zna da vlada to može da uradi?“.
„Mama test“, kako ga Katler naziva, predstavlja logičnu proveru kako DCSA obavlja svoj posao. Ova praksa odražava i način na koji Katler razmišlja o primeni AI u agenciji.
DCSA je odgovorna za obradu i odobravanje 95% sigurnosnih dozvola za federalne radnike. To podrazumeva da svake godine mora da sprovede milione istraga. Ovo agenciji omogućava pristup velikoj količini privatnih podataka. Prošle godine DCSA je uvela AI alate kako bi organizovala i tumačila te informacije.
Mapa rizika u realnom vremenu
Ti alati ne uključuju ČetGPT, Bard, Kold niti druge napredne generativne AI modele. Umesto toga, „kopaju“ i organizuju podatke slično kako to rade tehnološke kompanije iz Silicijumske doline godinama. Koriste se sistemi koji transparentnije pokazuju šta su radili nego što to radi bilo koji jezički model. Katler navodi da je najperspektivniji način primene ovih alata u agenciji određivanje prioriteta među postojećim pretnjama.
Ako se ne koriste pažljivo, ovi alati mogu ugroziti bezbednost podataka i uneti pristrasnost u vladine sisteme. Ipak, Katler veruje da određene „manje atraktivne“ funkcije AI mogu značajno unaprediti rad agencije. Pod uslovom da alati nisu „crne kutije“.
„Moramo razumeti zašto je alat kredibilan i kako radi“, rekao je Katler za Forbes. „Moramo dokazati da alati koje koristimo rade ono što tvrde da rade, na objektivan, usklađen i dosledan način.“
Mnogi možda i ne smatraju alate koje Katler opisuje AI tehnologijom. Na primer, on je oduševljen idejom izrade mape sa rizicima o objektima koje DCSA obezbeđuje, a gde bi se rizici prikazivali u realnom vremenu. Informacije o potencijalnim pretnjama koje prikupe vladine agencije koristile bi se za redovno ažuriranje. Ovakav alat, kaže, pomogao bi DCSA da „odredi gde da postavi (metaforičko) vatrogasno vozilo“. Ne bi otkrivao nove informacije, već bi postojeće prikazivao na korisniji način.
Poziv na oprez
Metju Šerer, viši savetnik za politiku u Centru za demokratiju i tehnologiju, kaže za Forbes da AI može biti koristan za organizaciju već prikupljenih i validiranih informacija. Međutim, sledeći korak – donošenje ključnih odluka, poput isticanja crvenih zastavica tokom procesa provere ili prikupljanje podataka sa društvenih mreža – može biti opasan. Na primer, AI sistemi se često muče sa razlikovanjem osoba sa istim imenom, što može dovesti do grešaka u identifikaciji.
„Zabrinjavajuće bi bilo kada bi AI sistem davao preporuke ili favorizovao određene kandidate“, rekao je Šerer. „Tada ulazimo u domen automatizovanog donošenja odluka“.
Katler navodi da odeljenje izbegava upotrebu AI za identifikaciju novih rizika. Ipak, čak i kod određivanja prioriteta, mogu se pojaviti problemi privatnosti i pristrasnosti. Prilikom ugovaranja sa AI kompanijama (Katler nije imenovao nijednog partnera), DCSA mora pažljivo razmotriti koje privatne podatke unosi u njihove algoritme i kako će ti algoritmi dalje koristiti te podatke kada ih dobiju.
Curenje podataka
Kompanije koje nude AI proizvode opštoj javnosti su imale slučajeve „curenja“ privatnih podataka, koje su im korisnici poverili. To je gubitak poverenja koji bi bio katastrofičan ako bi se desio sa podacima koje poseduje Pentagon.
AI takođe može uneti pristrasnost u sisteme Ministarstva odbrane. Algoritmi reflektuju slepe tačke svojih kreatora i podataka na kojima su obučeni. DSCA se oslanja na nadzor koji sprovode Bela kuća, Kongres i druga administrativna tela kako bi se zaštitio od pristrasnosti u svojim sistemima. Izveštaj RAND korporacije iz 2022. godine upozorio je da AI može uneti pristrasnost u proces provere sigurnosnih dozvola. Potencijalni razlog tome mogla bi da bude pristrasnost programera ili istorijske rasne razlike.
Katler priznaje da se društvene vrednosti koje oblikuju algoritme, uključujući one u Pentagonu, vremenom menjaju. Danas, kako kaže, odeljenje je manje tolerantno prema ekstremističkim stavovima nego ranije. Ali je donekle tolerantnije prema osobama koje su bile ovisnici o alkoholu ili drogi i sada su u procesu rehabilitacije. „Donedavno, u mnogim delovima SAD-a bilo je ilegalno biti gej“, rekao je. „To je bila pristrasnost koju bi sistem možda morao sam da prevaziđe“.
Emili Bejker-Vajt, novinarka Forbes
Raši Šrivastava, novinarka Forbes