Čak i veštačka inteligencija postaje „brejn rot“ od lošeg sadržaja na internetu

Inovacije Forbes 27. nov 2025. 07:00
featured image

27. nov 2025. 07:00

Brejn rot (Brain rot – truljenje mozga) više nije rezervisana samo za ljude. Ovo savremeno oboljenje, pokazuje novo istraživanje, pogađa i veštačku inteligenciju.

Šta je Brejn rot

Izraz Brejn rot postao je skraćenica za fenomen u kojem beskrajna konzumacija trivijalnog ili površnog sadržaja na internetu otupljuje ljudsku kogniciju. Narušava fokus, pamćenje, disciplinu i socijalno rasuđivanje. Termin je toliko obeležio naše „digitalno doba” da ga je Oksfordska univerzitetska štamparija proglasila rečju godine 2024.

@trdonatt balerina kapucina #balerinacappuchina #videoai #viral #funny #shorts #fyp #keranjangkuning ♬ BALLERINA CAPPUCCINA PHONK, Vol. 4 – SPED UP – Cheese Pizza

Istraživači sa Univerziteta Teksas u Ostinu, Teksas A&M univerziteta i Purdju univerziteta zapitali su se: ako se veliki jezički modeli, na koje se sve više oslanjamo za informacije, obučavaju na istom beskonačnom toku „otpada sa mreže” koji konzumiraju i ljudi, šta to znači za njihove „mozgove”? Na to pitanje pokušali su da odgovore u novoj studiji objavljenoj na istraživačkoj platformi arXiv, koja je trenutno u procesu ocenjivanja.

Ono što je istraživače najviše zabrinulo jeste činjenica da vrsta viralnog sadržaja koji privlači pažnju obično dominira na internetu i utiče na rezultate AI modela gotovo isto kao i na ljudsku kogniciju. Naravno, AI modeli ne mogu da misle niti da razumeju. Međutim, kada su izloženi sadržaju niskog kvaliteta, pokazuju propuste u „rezonovanju”, činjenične nekonzistentnosti i nemogućnost održavanja logičke koherentnosti u dužim kontekstima, između ostalog. Istraživači namerno koriste termine poput „misliti”, „razumeti”, „rezonovati” i „kognitivni” da bi povukli paralele između ljudi i veštačke inteligencije.

„Najvažniji zaključak je da jezički modeli odražavaju kvalitet svojih podataka mnogo dublje nego što smo mislili”, naveli su koautori studije, Džunjuan Hong i Atlas Vang, u zajedničkom pisanom odgovoru. „Kada su izloženi ‘smeću’, modeli ne izgledaju samo lošije — oni počinju da misle lošije”. Hong je postdoktorski istraživač na Univerzitetu Teksas Ostin i budući profesor na Nacionalnom univerzitetu Singapura, dok je Vang vanredni profesor na odseku za elektrotehniku i računarstvo istog univerziteta.

Ali kako definisati „smeće od sadržaja”?

Da bi testirali svoju „hipotezu o moždanoj truleži kod LLM-a”, istraživači su sastavili „džank” i kontrolne skupove podataka sa društvene mreže X.

„Smeće” je obuhvatalo vrlo popularan sadržaj osmišljen da privuče pažnju uz minimalne informacije. Tu spadaju: klikbejt linkovi, reciklirani komentari na mimove, objave dizajnirane da izazovu bes i algoritamski generisane liste.

Takav sadržaj, kažu Hong i Vang, „izgleda čisto i tečno. Tradicionalni klasifikatori kvaliteta podataka smatraju da je to u redu. Međutim, on tiho narušava sposobnost rezonovanja jer uči modele da imitiraju pažnju, a ne razumevanje”.

Potom su obučili više velikih jezičkih modela na ovim „džank” podacima . To je uključilo Llama3 kompanije Meta i verzije Qwen modela kompanije Alibaba. I posmatrali su kako dolazi do kognitivnog propadanja. Zapanjujuće, šteta izazvana niskokvalitetnim sadržajem imala je trajan efekat na modele.

„Čak i nakon intenzivne ‘rehabilitacije’ na čistijim podacima, oštećeni modeli nikada se nisu potpuno oporavili”, navode istraživači.

„Ta postojanost znači da ‘AI moždana trulež’ nije samo privremeni kvar — to je oblik kognitivnog ožiljka. Za korisnike to znači modele koji deluju tečno, ali plitko razmišljaju — samouvereni, a ipak zbunjeni”.

Komentar bivšeg naučnika iz Dipmajnda

Ilija Šumailov, bivši viši istraživač u Gugl Dipmajndu, koji nije učestvovao u studiji, kaže da ga rezultati ne iznenađuju jer se uklapaju u postojeću akademsku literaturu o „trovanju modela”. Taj pojam opisuje situaciju kada napadači manipulišu podacima za obuku AI sistema kako bi uneli pristrasnosti i ranjivosti u svoju korist.

„Teško je iz manjih studija izvući zaključke o tome šta bi se dogodilo u velikim razmerama”, rekao je Šumailov.

Većina internet podataka jeste lošeg kvaliteta, a ipak uspevamo da dobijemo vrlo sposobne modele. Ovakve studije shvatam kao upozorenje da podaci za obuku moraju biti pažljivo provereni”.

„Kognitivna higijena” i budućnost AI

Na to se već obraća pažnja, kaže Gideon Futerman, saradnik za specijalne projekte u Center for AI Safety, neprofitnoj organizaciji iz San Franciska koja promoviše bezbedan razvoj i primenu veštačke inteligencije.

„Vodeće AI kompanije ulažu mnogo napora u poboljšanje kvaliteta podataka koji se koriste u obuci”, rekao je Futerman u intervjuu. Dodaje da ga više brine trovanje podataka nego treniranje modela na lošem sadržaju.

„Napredak u kvalitetu pretrening podataka jedan je od glavnih razloga zbog kojih AI sistemi postaju sve bolji”.

Hong i Vang taj proces nazivaju „kognitivnom higijenom”. Oni smatraju da će budućnost bezbednosti AI zavisiti od integriteta podataka koji oblikuju modele. Naročito, kako sve veći deo tih ulaznih informacija postaje AI-generisan.

„Razumevanje ove granice zahtevaće dublja, sistematičnija istraživanja”, rekli su naučnici. „Kako sadržaj na internetu postaje sve više veštački generisan i vođen željom za angažmanom, budući AI modeli rizikuju da naslede iskrivljenja u rezonovanju i predstavljanju koja su već ugrađena u te podatke”.

Lesli Kac, saradnica Forbes