Mnogi AI četbotovi koriste razgovore koje vodite sa njima kao podatke za obuku kako bi nastavili da razvijaju svoje generativne AI modele, ali pojedini korisnici možda ne shvataju da njihovi razgovori sa ovim alatima nisu potpuno privatni.

Prošle nedelje, AI kompanija "Anthropic" najavila je da će početi da trenira nekoliko verzija svog modela veštačke inteligencije, Klaud (Claude), na osnovu razgovora koje vodi sa korisnicima, osim ako se korisnici ne odjave iz toga. Svrha koju je naveo jeste da želi da poboljša model, uključujući bolju detekciju ilegalnog ili štetnog sadržaja.

Iako je ovaj potez izazvao medijsku pažnju, praksa je već raširena među nekim od najpopularnijih AI alata.

Društvena mreža Meta, koja je sada veliki AI developer, najavila je još u aprilu da će početi da trenira svoj AI na osnovu interakcija korisnika. Ali to nije sve, Meta je takođe saopštila da će hraniti svoj AI javno dostupnim ličnim informacijama korisnika Fejsbuka i Instagrama, osim ako se korisnici ne odjave, piše Euractiv.

Potez kompanije izazvao je veliku kritiku zbog privatnosti jer, ipak, Meta je oglašivački gigant koji zarađuje targetiranjem pojedinaca mikro-oglasima. Ipak, irski regulator za zaštitu podataka, koji nadgleda Metu u EU, odobrio je ovu promenu u maju.

ChatGPT
Foto: JYPIX / Alamy / Profimedia

Ipak, možda najviše korišćeni chatbot, OpenAI ChatGPT, takođe koristi razgovore korisnika kao podatke za dalju obuku modela, i samo omogućava korisnicima da se odjave. Guglov Gemini nije ništa drugačiji, obećava personalizovanije odgovore dopuštajući svom AI da koristi prethodne razgovore. I ovde, korisnici mogu odbiti, ali je opcija "podatke za obuku" uključena po difoltu.

Zabrinutost zbog pristupa intimnim i osetljivim razgovorima

Jedna od glavnih zabrinutosti oko pretvaranja razgovora ljudi u podatke za obuku AI jeste što mnogi korisnici dele mnogo ličnih, pa čak i osetljivih informacija sa četbotovima. Neki korisnici čak razviju emotivnu vezu sa chatbotovima, kako smo već pisali.

Postoje i mnogi ljudi koji koriste AI alate kao terapeute. CEO OpenAI-a, Sem Altman, upozorio je da razgovori sa ovim botom nisu zaštićeni poverljivošću između pacijenta i psihologa (kao što bi bio slučaj sa ljudskim psihologom).

Sem Altman
Sem Altman, direktor Open AI kompanije Foto: Antonello Marangi/Shutterstock

Pored bezbednosnih pitanja u vezi sa curenjem ili zloupotrebom osetljivih ličnih informacija, korišćenje ljudskih razgovora za treniranje AI modela postavlja i pravna pitanja privatnosti u Evropi.

Prema zakonima EU, svaka kompanija koja obrađuje lične podatke mora imati validan pravni osnov za to, uključujući i generativne AI kompanije. Većina developera AI četbota sada navodi "legitimni interes" kao pravni osnov za korišćenje ličnih podataka, tvrdeći da AI modeli zahtevaju ogromne količine podataka da bi funkcionisali i poboljšali kvalitet.

Dok je treniranje AI Mete na ličnim podacima iz njenih društvenih mreža kritikovana, pokušaji da se tehnološki gigant zaustavi na osnovu zakona EU o privatnosti do sada nisu uspeli.

Očekuje se da će AI sve više biti ugrađen u naše svakodnevne živote, jer vodeće kompanije žele da razviju "AI agente", navodno još napredniju verziju generativnog AI dizajniranu da nudi personalizovanu pomoć jednim klikom. To bi, upozorava portal, moglo biti "još opasnije jer će ti agenti zahtevati pristup ogromnim količinama ličnih podataka".

(EUpravo zato.rs)