Čak i veštačka inteligencija postaje „brejn rot“ od lošeg sadržaja na internetu

Brejn rot (Brain rot – truljenje mozga) više nije rezervisana samo za ljude. Ovo savremeno oboljenje, pokazuje novo istraživanje, pogađa i veštačku inteligenciju.
Šta je Brejn rot
Izraz Brejn rot postao je skraćenica za fenomen u kojem beskrajna konzumacija trivijalnog ili površnog sadržaja na internetu otupljuje ljudsku kogniciju. Narušava fokus, pamćenje, disciplinu i socijalno rasuđivanje. Termin je toliko obeležio naše „digitalno doba” da ga je Oksfordska univerzitetska štamparija proglasila rečju godine 2024.
@trdonatt balerina kapucina #balerinacappuchina #videoai #viral #funny #shorts #fyp #keranjangkuning ♬ BALLERINA CAPPUCCINA PHONK, Vol. 4 – SPED UP – Cheese Pizza
Istraživači sa Univerziteta Teksas u Ostinu, Teksas A&M univerziteta i Purdju univerziteta zapitali su se: ako se veliki jezički modeli, na koje se sve više oslanjamo za informacije, obučavaju na istom beskonačnom toku „otpada sa mreže” koji konzumiraju i ljudi, šta to znači za njihove „mozgove”? Na to pitanje pokušali su da odgovore u novoj studiji objavljenoj na istraživačkoj platformi arXiv, koja je trenutno u procesu ocenjivanja.
Ono što je istraživače najviše zabrinulo jeste činjenica da vrsta viralnog sadržaja koji privlači pažnju obično dominira na internetu i utiče na rezultate AI modela gotovo isto kao i na ljudsku kogniciju. Naravno, AI modeli ne mogu da misle niti da razumeju. Međutim, kada su izloženi sadržaju niskog kvaliteta, pokazuju propuste u „rezonovanju”, činjenične nekonzistentnosti i nemogućnost održavanja logičke koherentnosti u dužim kontekstima, između ostalog. Istraživači namerno koriste termine poput „misliti”, „razumeti”, „rezonovati” i „kognitivni” da bi povukli paralele između ljudi i veštačke inteligencije.
„Najvažniji zaključak je da jezički modeli odražavaju kvalitet svojih podataka mnogo dublje nego što smo mislili”, naveli su koautori studije, Džunjuan Hong i Atlas Vang, u zajedničkom pisanom odgovoru. „Kada su izloženi ‘smeću’, modeli ne izgledaju samo lošije — oni počinju da misle lošije”. Hong je postdoktorski istraživač na Univerzitetu Teksas Ostin i budući profesor na Nacionalnom univerzitetu Singapura, dok je Vang vanredni profesor na odseku za elektrotehniku i računarstvo istog univerziteta.
Ali kako definisati „smeće od sadržaja”?
Da bi testirali svoju „hipotezu o moždanoj truleži kod LLM-a”, istraživači su sastavili „džank” i kontrolne skupove podataka sa društvene mreže X.
„Smeće” je obuhvatalo vrlo popularan sadržaj osmišljen da privuče pažnju uz minimalne informacije. Tu spadaju: klikbejt linkovi, reciklirani komentari na mimove, objave dizajnirane da izazovu bes i algoritamski generisane liste.
Takav sadržaj, kažu Hong i Vang, „izgleda čisto i tečno. Tradicionalni klasifikatori kvaliteta podataka smatraju da je to u redu. Međutim, on tiho narušava sposobnost rezonovanja jer uči modele da imitiraju pažnju, a ne razumevanje”.
Potom su obučili više velikih jezičkih modela na ovim „džank” podacima . To je uključilo Llama3 kompanije Meta i verzije Qwen modela kompanije Alibaba. I posmatrali su kako dolazi do kognitivnog propadanja. Zapanjujuće, šteta izazvana niskokvalitetnim sadržajem imala je trajan efekat na modele.
„Čak i nakon intenzivne ‘rehabilitacije’ na čistijim podacima, oštećeni modeli nikada se nisu potpuno oporavili”, navode istraživači.
„Ta postojanost znači da ‘AI moždana trulež’ nije samo privremeni kvar — to je oblik kognitivnog ožiljka. Za korisnike to znači modele koji deluju tečno, ali plitko razmišljaju — samouvereni, a ipak zbunjeni”.
Komentar bivšeg naučnika iz Dipmajnda
Ilija Šumailov, bivši viši istraživač u Gugl Dipmajndu, koji nije učestvovao u studiji, kaže da ga rezultati ne iznenađuju jer se uklapaju u postojeću akademsku literaturu o „trovanju modela”. Taj pojam opisuje situaciju kada napadači manipulišu podacima za obuku AI sistema kako bi uneli pristrasnosti i ranjivosti u svoju korist.
„Teško je iz manjih studija izvući zaključke o tome šta bi se dogodilo u velikim razmerama”, rekao je Šumailov.
„Većina internet podataka jeste lošeg kvaliteta, a ipak uspevamo da dobijemo vrlo sposobne modele. Ovakve studije shvatam kao upozorenje da podaci za obuku moraju biti pažljivo provereni”.
„Kognitivna higijena” i budućnost AI
Na to se već obraća pažnja, kaže Gideon Futerman, saradnik za specijalne projekte u Center for AI Safety, neprofitnoj organizaciji iz San Franciska koja promoviše bezbedan razvoj i primenu veštačke inteligencije.
„Vodeće AI kompanije ulažu mnogo napora u poboljšanje kvaliteta podataka koji se koriste u obuci”, rekao je Futerman u intervjuu. Dodaje da ga više brine trovanje podataka nego treniranje modela na lošem sadržaju.
„Napredak u kvalitetu pretrening podataka jedan je od glavnih razloga zbog kojih AI sistemi postaju sve bolji”.
Hong i Vang taj proces nazivaju „kognitivnom higijenom”. Oni smatraju da će budućnost bezbednosti AI zavisiti od integriteta podataka koji oblikuju modele. Naročito, kako sve veći deo tih ulaznih informacija postaje AI-generisan.
„Razumevanje ove granice zahtevaće dublja, sistematičnija istraživanja”, rekli su naučnici. „Kako sadržaj na internetu postaje sve više veštački generisan i vođen željom za angažmanom, budući AI modeli rizikuju da naslede iskrivljenja u rezonovanju i predstavljanju koja su već ugrađena u te podatke”.
Lesli Kac, saradnica Forbes