Italijanski Garante trdi, da ChatGPT OpenAI krši pravila o varstvu podatkov

Italijanski organ za varstvo podatkov, Garante, je stopnjeval svoj nadzor nad OpenAI-jevim ChatGPT in trdil, da aplikacija chatbot z umetno inteligenco krši pravila o varstvu podatkov. Do tega razvoja je prišlo po tem, ko je Garante pred tem prepovedal ChatGPT zaradi domnevnih kršitev predpisov Evropske unije (EU) o zasebnosti, vendar je nato dovolil njegovo ponovno aktivacijo po prizadevanjih OpenAI za odpravo pomislekov. Garante je izrazil nove pomisleke, zaradi česar je OpenAI pripravil svojo obrambo.

Garante je bil proaktiven pri ocenjevanju skladnosti platforme AI z režimom EU o zasebnosti podatkov. Lani je organ prepovedal ChatGPT zaradi domnevnih kršitev pravil EU o zasebnosti. Vendar pa je bila storitev ponovno vzpostavljena, potem ko je OpenAI sprejel ukrepe za reševanje vprašanj glede soglasja uporabnikov, povezanih z uporabo osebnih podatkov pri usposabljanju algoritmov. Kljub ponovni aktivaciji je Garante vztrajal pri svojih preiskavah in je zdaj objavil, da je odkril elemente, ki kažejo na možne kršitve zasebnosti podatkov.

V odgovor na Garantejeve trditve je OpenAI trdil, da so njegove prakse usklajene z zakonodajo EU o zasebnosti. Organizacija je trdila, da si dejavno prizadeva zmanjšati uporabo osebnih podatkov pri usposabljanju svojih sistemov, kot je ChatGPT. OpenAI je tudi izrazil svojo zavezanost konstruktivnemu sodelovanju z Garantejem med tekočo preiskavo.

Naslednji koraki in pravne posledice

Garante je OpenAI, ki ga podpira Microsoft, dal 30-dnevno obdobje za predstavitev svojih obrambnih argumentov. To obdobje bo ključnega pomena za OpenAI, da pojasni svoje prakse varstva podatkov in dokaže skladnost s predpisi EU. Garantejeva preiskava bo upoštevala tudi ugotovitve in prispevek evropske delovne skupine, ki jo sestavljajo nacionalni nadzorniki zasebnosti.

Ozadje te preiskave je Splošna uredba EU o varstvu podatkov (GDPR), uvedena leta 2018. V skladu z GDPR se lahko vsako podjetje, za katerega se ugotovi, da je kršilo pravila o varstvu podatkov, sooči z globo v višini do 4 % njihovega svetovnega prometa. Z dejanji podjetja Garante je očitno, da organi za varstvo podatkov v EU jemljejo kršitve resno in so pripravljeni uveljaviti kazni, kadar je to potrebno.

Širši regulativni trendi

Primer ChatGPT ni osamljen, saj poudarja širše regulativne trende v zvezi s sistemi umetne inteligence v EU. Decembra so zakonodajalci in vlade EU naredili pomemben korak naprej z dogovorom o začasnih pogojih za regulacijo sistemov umetne inteligence, kot je ChatGPT. Ta poteza približuje EU vzpostavitvi celovitih pravil za urejanje uporabe tehnologije umetne inteligence, s posebnim poudarkom na varovanju zasebnosti podatkov in zagotavljanju etičnih praks umetne inteligence.

Preiskava italijanskega Garanteja, ki poteka v zvezi s ChatGPT OpenAI, poudarja pomen skladnosti s predpisi o varstvu podatkov v Evropski uniji. Pripravljenost OpenAI na sodelovanje in obravnavanje pomislekov v zvezi z uporabo osebnih podatkov bo igrala ključno vlogo pri izidu tega primera. Poleg tega širši regulativni trendi v EU kažejo na vse večji poudarek na vzpostavitvi celovitih smernic za sisteme umetne inteligence, ki obravnavajo varstvo podatkov in etična vprašanja. Ko se preiskava odvija, je treba še videti, kako bo OpenAI krmaril s temi izzivi in ​​ali lahko zadovolji pomisleke Garante glede skladnosti ChatGPT s pravili EU o zasebnosti podatkov.

Vir: https://www.cryptopolitan.com/chatgpt-violate-data-protection/