Nova studija Evropske radiodifuzione unije (EBU) otkrila je zabrinjavajuće stope grešaka među popularnim četbotovima zasnovanim na veštačkoj inteligenciji.
Istraživači upozoravaju da ovi sistemi često izmišljaju informacije, pa čak i navode nepostojeće izvore.
Danas stotine miliona ljudi širom sveta koriste AI četbotove kao izvor informacija.
Samo ChatGPT koristi oko 800 miliona korisnika nedeljno, a mnogi ga već vide kao zamenu za tradicionalne pretrage na internetu. Međutim, poverenje u takve alate pokazuje se kao rizično.
Četbotovi često izmišljaju činjenice
EBU, koja okuplja 68 javnih emitera iz 56 zemalja, sprovela je detaljno testiranje najpoznatijih AI sistema, među njima ChatGPT, Claude, Copilot i Gemini.
Rezultati su pokazali da ovi programi izmišljaju između 15 i čak 40 odsto svojih odgovora, a korisnicima ih predstavljaju kao tačne informacije.
U pojedinim slučajevima sistemi su tvrdili potpuno netačne stvari: ChatGPT je, na primer, pogrešno naveo da je papa Franja živ, Copilot nije znao da je Švedska članica NATO-a, dok je Googleov Gemini tvrdio da Donald Tramp tek može biti reizabran, iako se to već dogodilo.
"AI sistemi često zvuče uverljivo, čak i kada iznose potpune neistine", upozorava ekonomista Peter Poš sa Tehničkog univerziteta u Dortmundu.
Kako navodi, zbog toga su posebno opasni za korisnike koji ne proveravaju informacije, jer greške nisu odmah očigledne.
Fenomen "halucinacije" i posledice po društvo
Stručnjaci ovaj problem nazivaju "halucinacijom" - situacijom kada veštačka inteligencija "izmišlja" informacije koje deluju logično, ali nemaju nikakvu osnovu u činjenicama.
Takve greške se najčešće javljaju kada sistem pokušava da poveže više složenih podataka ili govori o aktuelnim, lokalnim događajima.
Ova pojava ima ozbiljne posledice: dezinformacije koje AI generiše brzo se šire društvenim mrežama, učenici i studenti ih uključuju u svoje radove, a građani mogu donositi političke ili lične odluke zasnovane na lažnim tvrdnjama.
Problem je što mnogi korisnici ni ne znaju da četbotovi mogu da greše.
Gubitak poverenja u medije
Još jedan izazov odnosi se na reputaciju tradicionalnih medija. Četbotovi neretko lažno tvrde da su informacije preuzete od poznatih izvora, poput nemačkih javnih servisa ARD ili ZDF, čime narušavaju poverenje u kredibilne novinske kuće.
EBU je testirala četbotove postavljajući im stotine pitanja iz istorije, nauke i aktuelnih tema, i nijedan sistem nije pokazao potpunu tačnost.
Zašto AI greši i šta možemo da uradimo
Razlog za ove greške leži u samom načinu rada četbotova, oni ne razumeju značenje rečenica, već statistički predviđaju koje bi reči mogle uslediti. Nemaju stvarno znanje, već obrasce koje „nauče" iz ogromnih količina teksta.
Tehnološke kompanije ulažu milijarde dolara u unapređenje tačnosti i verifikaciju izvora, ali "halucinacije" ostaju nerešen problem.
EBU preporučuje korisnicima da AI sisteme koriste sa oprezom, nikada slepo ne verovati odgovorima, već uvek proveriti činjenice kod pouzdanih izvora, naročito kada su u pitanju vesti, politika, zdravlje ili finansije.
Škole i univerziteti, navodi se u izveštaju, moraju više da rade na medijskoj pismenosti i edukaciji o prepoznavanju dezinformacija koje generiše veštačka inteligencija.
Dok tehnologija ne postane pouzdanija, AI četbotovi mogu biti korisni za kreativne i pomoćne zadatke, ali nikako ne bi trebalo da se koriste kao izvori vesti ili proveravači činjenica.
Jer, bez obzira na digitalnu revoluciju, potreba za ljudskim novinarima koji proveravaju izvore i činjenice ostaje nezamenljiva.
(M.A./EUpravo zato/rts.rs)