Nekoliko velikih AI kompanija koje su nedavno objavile nove modele, čini se, ne pridržava se pravila EU o transparentnosti za ove alate.
Prema Aktu o veštačkoj inteligenciji EU, kompanije koje razvijaju velike temeljne modele, poput onih koji stoje iza popularnih četbotova kao što su ChatGPT ili Gugl Gemini, obavezne su da javno objave informacije o podacima korišćenim za treniranje AI modela.
Ova objavljivanja su posebno važna za umetnike, pisce i druge koji proizvode autorski zaštićen sadržaj. EU želi da omogući kreativcima da provere da li je njihov rad možda korišćen za treniranje nekog modela, što bi moglo da podrži pravne postupke ukoliko smatraju da su im povređena prava, piše Euractiv.
AI developeri treba da otkriju da li su koristili javno dostupne skupove podataka ili licencirane informacije dobijene od nosilaca prava. Takođe bi trebalo da navedu najvažnije veb-sajtove sa kojih su prikupljali podatke za treniranje i da preciziraju koji je sadržaj korišćen.
Evropska komisija je sve ovo definisala kroz poseban obrazac, koji bi trebalo da obezbedi "zajedničku minimalnu osnovu".
Međutim, veliki AI developeri ne žure da podnesu ove informacije – što otvara pitanje da li će Komisija morati da interveniše i primora ih na poštovanje pravila kada se ovog leta završi prelazni (grace) period za njihovu primenu.
Pravila još nisu sprovedena
Rokovi za usklađivanje sa obavezom objavljivanja podataka o treniranju zavise od toga kada je model proizveden. Kompanije koje su AI model stavile na evropsko tržište pre 2. avgusta 2025. imaju rok do avgusta 2027. da ispune ovu obavezu. Međutim, modeli objavljeni nakon 2. avgusta 2025. trebalo bi da budu usklađeni odmah.
Ključno je, međutim, to da će Komisija tek ovog avgusta formalno započeti nadzor i sprovođenje ovih pravila o objavljivanju podataka, čime se AI developerima produžava prelazni period do leta, iako kompanije mogu da se povinuju zakonu i ranije, ukoliko to žele.
Hugging Face, kompanija specijalizovana za open-source AI modele, upravo je to i učinila, popunivši i objavivši obrazac za jedan model koji je objavila čak i pre roka predviđenog AI Aktom.
"Čestitke Kancelariji za veštačku inteligenciju Evropske komisije što je sve učinila tako jednostavnim!", napisao je šef mašinskog učenja u toj kompaniji, Džasin Džernit, u blog postu i sugerisao da je popunjavanje i objavljivanje obrasca izvodljivo čak i za manje organizacije, navodeći da mu je za to trebalo svega dva sata.
Za druge AI developere, priznanje o tome koje su informacije koristili za treniranje svojih modela ne izgleda tako jednostavno.
OpenAI je objavio GPT-5 samo nekoliko dana nakon roka 2. avgusta 2025; Google je u novembru predstavio Gemini 3; a u decembru je evropski Mistral izašao sa modelom Mistral 3.
U trenutku pisanja ovog teksta, nijedan od ovih temeljnih AI modela, čini se, nije objavio informacije koje zahteva AI Akt EU. Umesto toga, pružili su samo opšte podatke o korišćenim treniranim podacima.
U model kartici GPT-5 pominju se "raznovrsni skupovi podataka", uključujući informacije sa javnog interneta, podatke dobijene od partnera i sadržaj koji su generisali ljudski treneri. I Gugl i Mistral takođe navode da su koristili raznovrsne podatke za treniranje svojih modela, ali bez navođenja konkretnih skupova podataka ili veb-sajtova.
Euractiv je pitao sve tri kompanije gde se može pronaći dokumentacija o njihovim modelima koju zahteva AI Akt EU. Gugl je odgovorio da trenutno procenjuje kako da operacionalizuje zahteve zakona, dodajući da u dobroj veri radi na usklađivanju. OpenAI je naveo da nastavlja saradnju sa Kancelarijom za veštačku inteligenciju, dok Mistral nije odgovorio.
Šta će Komisija preduzeti?
"Ovaj nedostatak transparentnosti ima stvarne posledice. Bez jasne slike o tome koje podatke AI developeri koriste za treniranje svojih modela, nosioci prava ne znaju da li se njihova vest ili umetničko delo koristi za AI treniranje protiv njihove volje", rekao je za Euractiv Maksimilijan Ganc, rukovodilac AI politike u Fondaciji Mozilla.
Zuzana Varšo, direktorka istraživanja u neprofitnoj organizaciji "Open Future", rekla je da su zahtevi zakona u pogledu transparentnosti relativno skromni, uz napomenu da se oni odnose i na evropske pružaoce usluga i da bi trebalo da se sprovode i prema njima.
Međutim, svaka buduća primena AI Akta gotovo sigurno će se naći u središtu aktuelnih transatlantskih sporova oko digitalne vladavine prava EU.
Pre skoro godinu dana, potpredsednik SAD Džej Di Vens iskoristio je govor na jednoj AI konferenciji u Parizu da kritikuje ono što je nazvao "prekomernom regulacijom veštačke inteligencije u Evropi".
Prva kazna EU protiv mreže X Elona Maska, izrečena prema odvojenim pravilima za platforme, takođe je kasnije prošle godine izazvala veliki politički sukob, iako je sama kazna bila relativno mala, a meta ekonomski ne previše značajna. Svaka primena pravila EU protiv američkih tehnoloških kompanija u Vašingtonu se predstavlja kao neprihvatljiva.
Pravila o transparentnosti iz AI Akta, s druge strane, mogla bi da pogode, potencijalno, autorski zaštićenu srž AI biznisa vrednih milijarde, koje predvode američki subjekti poput OpenAI-ja, Google-a, Mete i Microsofta.
U septembru 2025. Komisija je za Euractiv izjavila da još uvek analizira da li se GPT-5 OpenAI-ja smatra novim modelom prema AI Aktu, ali je tvrdila da će sprovoditi usklađivanje, uključujući i izricanje kazni ako bude potrebno.
Komisija je odbila da zvanično komentariše kada ju je Euractiv pitao da li je u međuvremenu donela bilo kakve zaključke u vezi sa GPT-5, kao i da li preduzima bilo kakve korake povodom drugih modela objavljenih od tada.
(EUpravo zato.rs)