ChatGPT, chatbot umjetne inteligencije (AI) pokrenut u studenom 2022. od strane Open AI-a, dosegao je 100 milijuna aktivnih korisnika u siječnju 2023.
Iako kreatori politika i zainteresirane strane još uvijek raspravljaju o rizicima vezanim uz privatnost, neki regulatori već su započeli istrage o OpenAI-ju i načinu na koji pristupa osobnim podacima i postupa s njima. U međuvremenu, vlada Ujedinjenog Kraljevstva objavila je svoju strategiju za regulaciju umjetne inteligencije.
Open AI je 14. ožujka 2023. pokrenuo GPT-4, najnoviju verziju ChatGPT-a koja može obraditi do 25 000 riječi, gotovo osam puta više od originalnog ChatGPT-a. Brzi razvoj doveo je do toga da su brojni stručnjaci za umjetnu inteligenciju (Elon Musk i suosnivač Applea Steve Wozniak) objavili otvoreno pismo, upozoravajući na potencijalne rizike brzog rasta AI i ChatGPT-a te pozvali programere da surađuju s kreatorima politika na razvoju sustava upravljanja umjetnom inteligencijom. Njihove brige možda nisu neutemeljene jer jezični model koji podržava ChatGPT zahtijeva velike količine podataka za funkcioniranje i poboljšanje. OpenAI je koristio 300 milijardi riječi iz knjiga, članaka i blogova objavljenih na internetskim stranicama. Pritom OpenAI nije zatražio pristanak pojedinaca da se njihovi osobni podaci koriste na ovaj način, a nisu brinuli ni o drugim pravnim osnovama obrade te načelima koje propisuje Opća uredba o zaštiti podataka (GDPR). Trenutačno ne postoji procedura kojom bi pojedinac ostvario svoje pravo ispitanika u skladu s GDPR-om ili propisima o zaštiti privatnosti Ujedinjenog Kraljevstva. Navedeno znači da ispitanik primjerice ne može provjeriti koje osobne podatke OpenAI ima te ne može zatražiti ni njihovo brisanje.
Ove su okolnosti potaknule talijansko nadzorno tijelo da 31. ožujka 2023. najavi zabranu ChatGPT-a. Također je najavilo početak službene istrage o OpenAI-ju. Dana 4. travnja 2023. kanadski savezni povjerenik za privatnost na sličan je način pokrenuo istragu o OpenAI-jevom prikupljanju i korištenju osobnih podataka, dok je njemački povjerenik za zaštitu podataka najavio da bi Njemačka mogla slijediti talijanski primjer. U Ujedinjenom Kraljevstvu, ICO je dosad imao blaži pristup. Prema ICO-vim smjernicama za zaštitu podataka objavljenim 3. travnja 2023. programeri umjetne inteligencije trebali bi između ostalog osigurati pravnu osnovu za obradu osobnih podataka, provedbu DPIA-a i pridržavanje svojih obveza u vezi s transparentnošću, sigurnošću i ograničenjem svrhe. Dakle, već pri razvoju moraju se svi pridržavati važećih propisa osobito onih o zaštiti privatnosti i osobnih podataka.
Mnoge tvrtke žele usvojiti tehnologije temeljene na umjetnoj inteligenciji kako bi povećale učinkovitost, ali nedavne mjere koje su poduzela regulatorna tijela za zaštitu podataka naglašavaju i upozoravaju sve koji koriste AI da bi tvrtke trebale biti svjesne da takve tehnologije uključuju obradu osobnih podataka te da treba razmotriti propise o zaštiti podataka i poštivati ih s naglaskom na načelo transparentnosti.
Često vidimo kako se javno objavljeni podaci koriste u svakakve svrhe drugačije od onih u koje su objavljeni. Zaboravlja se da nešto što je javno je stavljeno i podijeljeno s trećim stranama u točno određene svrhe za koje ta osoba koja ih je podijelila zna, no to ne znači da netko može samo “pokupiti” i iskoristiti te podatke jer su javno dostupni. To je u velikom broju slučajeva kršenje GDPR-a i to treba sankcionirati kao kršenje GDPR-a. Javnost mora znati na kojim podacima se treniraju algoritmi.
Veliki problem predstavlja i prijenos podataka u treće zemlje izvan EU. ˝Novi Privacy Shield˝ nije donesen tako da – osim što su podaci iskorišteni za treniranje algoritma, bojazan je i da su preneseni u treće zemlje koje ne jamče građanima EU istu razinu zaštite.
Na kraju, priča o ChatGPT-u nije priča samo o njemu već o problemu da regulativa ne prati u dovoljnoj mjeri tehnologije, ali i o tome da razvoj novih tehnologija odbija i/ili ne zna pratiti na adekvatan način postojeću regulativu te stoga dolazi do ovakvih posljedica. Nekako svi regulativu doživljavaju kao uteg i ne misle na novčane posljedice i/ili posljedice zabrane korištenja ukoliko nešto novo nije usklađeno s postojećom regulativom što ˝košta˝ kasnije još više. Vjerovali ili ne neki pravnici ne mogu biti zamijenjeni AI-em (još) 😊