Većina ljudi poistovećuje veštačku inteligenciju sa, digitalnim alatom ChatGPT koji je za kratko vreme promenio svet. Štaviše, za mnoge je on postao sastavni deo posla, pa i svakodnevnog života.
Zato je od posebnog značaja pitanje kako će novi Akt o veštačkoj inteligenciji (en. AI Act), koji je prva na svetu upravo Evropska unija usvojila, uticati na gorepomenuti alat koji se definiše još i kao opštenamenski sistem AI (en. GPAI - general-purpose AI).
Iako pomenuta uredba Unije nije prošla bez kritika, činjenica jeste da je ona usvojena kako od strane država članica u Savetu, tako i od strane Evropskog parlamenta, čime je postala nova regulatorna realnost. Imajući u vidu da će i Srbija, kao i druge države kandidati, biti u obavezi da usvoji pomenuti Akt pre ostvarivanja članstva u Evropskoj uniji, u nastavku analiziramo datu problematiku radi razjašnjavanja potencijalnih nedoumica građana koji se oslanjaju na ChatGPT.
Regulacija sistema ograničenog rizika
U jednom od prošlih tekstova ukazali smo da je Unija odlučila da nijansirano pristupi regulaciji veštačke inteligencije, tako što klasifikuje AI sisteme prema stepenu rizika. Oni se dele na sisteme "neprihvatljivog rizika", "visokog rizika", "ograničenog rizika" i "minimalnog rizika".
Za korisnike ChatGPT-a, olakšavajuća vest je da se ovaj alat svrstava u kategoriju sistema tek "ograničenog rizika". Za razliku od sistema neprihvatljivog rizika, koji su zabranjeni, i visokog rizika, koji se suočavaju sa ozbiljnim ograničenjima, provajderi GPAI sistema ograničenog rizika prevashodno moraju da se usklade sa pojačanim pravilima transparentnosti.
To znači da provajder mora regulisati model tako da njegovi korisnici jasno znaju da komuniciraju sa AI, dok će AI-generisani sadržaji poput zvuka, slika ili video materijala morati da budu adekvatno obeleženi. U svetu dominacije lažnih vesti, ovakva mera predostožnosti dobija na značaju.
Ipak, obaveze za provajdere GPAI sistema idu i šire od pukog obeležavanja sadržaja. Tako će OpenAI, kao provajder ChatGPT-a, morati da: 1) obezbedi tehničku dokumentaciju i održava je ažurnom; 2) objavi sažetak podataka korišćenih za obuku modela, prema unapred definisanom obrascu; 3) uspostavi i javno objavi politiku o autorskim pravima, kojom se obezbeđuje poštovanje vlasnika sadržaja; i 4) sarađuje sa novouspostavljenom AI Kancelarijom Evropske komisije, koja je zadužena za sprovođenje Akta i podršku provajderima.
Sve ove obaveze su blisko povezane sa Kodeksom dobre prakse (en. Code of Practice). Iako nije obavezan, ovaj Kodeks predstavlja vodič za prihvatljivo AI ponašanje. OpenAI, zajedno sa Google-om i IBM-om, već je među potpisnicima ovog Kodeksa. U praksi, pridržavanje Kodeksa će se koristi kao dokaz usklađenosti sa pravilima i može biti olakšavajuća okolnost u slučaju (nenamernih) prekršaja.
Kako je ChatGPT na tržištu EU prisutan još od 2022. godine, dakle pre stupanja na snagu AI Akta 1. avgusta 2024. godine, za njega važi poseban tranzicioni režim. Naime, za sve GPAI modele plasirane posle 2. avgusta 2025. obaveze se primenjuju odmah, dok u tim slučajevima Komisija dobija ovlašćenja za sprovođenje nadzora i izricanje kazni od 2. avgusta 2026. godine.
U odnosu na taj režim, OpenAI ima rok do 2. avgusta 2027. godine da u potpunosti uskladi ChatGPT sa novim pravilima. Na taj način EU daje vreme provajderima već postojećih modela da uvedu potrebne mehanizme transparentnosti, zaštite autorskih prava, bezbednosti i drugih standarda predviđenih Aktom. Istovremeno, obezbeđuje se da ni jedan sistem dugoročno ne ostane izvan regulatornog domašaja.
Stroža pravila iza ugla
Iako deluje da OpenAI neće morati da preterano brine oko regulatornih prepreka, potrebno je posebno naglasiti da pravila mogu postati i "stroža" u slučaju vanrednih okolnosti. Do toga može doći ukoliko ChatGPT u narednom periodu dostigne nivo "sistemskog rizika".
To se može desiti na dva načina: ili automatski, kada se registruje da je model u treningu prešao tzv. prag od 10²⁵ FLOPS (en. floating point operations) ili odlukom Evropske komisije - čak i bez formalnog prelaska praga, Komisija može samoinicijativno ili na osnovu upozorenja panela oceniti ekvivalentan uticaj.
Rizik specifičan za takve modele ogleda se u proceni da oni mogu imati značajan efekat na tržište EU ili izazvati negativne posledice po zdravlje, bezbednost, osnovna prava ili društvo u celini. Najozbiljniji oblik ovih rizika ogleda se u potencijalnoj upotrebi AI za razvoj hemijskog ili biološkog oružja.
Dužnosti provajdera se u tom slučaju umnožavaju. Prvo, čim pređe pomenuti prag, OpenAI će imati obavezu da bez odlaganja, već i tokom samog treninga, to prijavi Komisiji, koja će onda uzeti u obzir mere kako bi se adresirali rizici koje taj sistem nosi.
Drugo, provajderi moraju aktivno da rade na proceni i ublažavanju sistemskih rizika, posebno konstantnim vršenjem evaluacija modela, praćenjem, dokumentovanjem i prijavljivanjem ozbiljnih incidenata i obezbeđivanjem adekvatne zaštite sajber bezbednosti za model i njegovu fizičku infrastrukturu. U krajnjem slučaju, može se tražiti povlačenje modela sa tržišta i izricati kazne do 3% globalnog godišnjeg prometa ili 15 miliona evra - koji god da je viši u tom trenutku.
Dakle, ako budući modeli, poput GPT-6, pređu prag od 10²⁵ FLOPS u treningu, automatski će se smatrati sistemski rizičnim. Ukoliko pak dođe do regulisane progresije u razvoju AI, ChatGPT će nastaviti slobodno da operira na evropskom tržištu, uključujući i države kandidate. U međuvremenu, svi provajderi će biti pod budnim okom Kancelarije za AI.
(EUpravo zato.rs)