Oblikovalci politike se morajo spopasti z resničnimi izzivi umetne inteligence

Osredotočanje na megleno tveganje izumrtja zaradi umetne inteligence je nevarna motnja.

Prejšnji teden je skupina Center za varnost umetne inteligence, ki jo financira Silicijeva dolina, izdala enostavčno izjavo: "Zmanjšanje tveganja izumrtja zaradi umetne inteligence bi moralo biti globalna prednostna naloga poleg drugih tveganj družbenega obsega, kot so pandemije in jedrska vojna." Podpisali so ga številni vodilni v industriji in cenjeni raziskovalci umetne inteligence, mediji pa so ga obsežno obravnavali.

Širši odziv na izjavo je bil oster. Profesorica z univerze v Oxfordu Sandra Wachter je dejala, da je šlo le za reklamni trik. Nekateri bolj razumni podpisniki, kot je varnostni strokovnjak Bruce Schneier, so hitro izrazili obžalovanje podpisnikov. »Pravzaprav ne verjamem, da umetna inteligenca predstavlja tveganje za izumrtje človeštva,« je dejal Schneier.

Drugi so mislili, da je izjava res trik za zbiranje sredstev. Profesor sociologije na Univerzi Duke Kieren Healy je objavil posmehljivo parafrazo: "s prijatelji bomo potrebovali absolutni tovornjak nepovratnih sredstev, da bi ublažili dobesedne eksistenčne grožnje na ravni vrste, povezane s tem, za kar trdimo, da ustvarjamo."

Marietje Schaake, nekdanja poslanka EU, zdaj pri Centru za kibernetsko politiko Univerze Stanford, je predlagala, da je podtekst izjave, da bi se oblikovalci politik morali ukvarjati z eksistencialnim tveganjem, medtem ko direktorji podjetij določajo dejanska pravila za uporabo umetne inteligence. Medtem ko je umetna inteligenca morda novost, je dejala, da ta implicitni argument, da so vodilni v industriji umetne inteligence "najboljši položaj za regulacijo samih tehnologij, ki jih proizvajajo", ni nič drugega kot govorne točke, reciklirane iz njihove prejšnje uporabe v družbenih medijih in sporih o kriptovalutah.

Moje mnenje je, da apokaliptična opozorila, da umetna inteligenca dosega zavestno in neodvisno delovanje, odvračajo pozornost od resničnih izzivov umetne inteligence, ki od regulatorjev zahtevajo, da pospešijo uveljavljanje veljavne zakonodaje, od oblikovalcev politik pa, da razmislijo o revizijah za odpravo pravnih vrzeli.

Goljufije, izvedene z uporabo umetne inteligence, so nezakonite, kot je dejala predsednica Zvezne komisije za trgovino Lina Khan. Agencija je že opozorila na uporabo umetne inteligence za lažno predstavljanje ljudi za izvajanje video in telefonskih goljufij. Kitajska je opazila isto stvar in se bori proti prevaram, ki jih poganja umetna inteligenca. Ni jasno, ali se tu pojavljajo nova pravna vprašanja, a za nadzor nad to prihajajočo poplavo goljufij z umetno inteligenco bi bila potrebna ogromna prizadevanja za izvrševanje. Popolno financiranje proračunske zahteve agencije v višini 590 milijonov dolarjev bi bila veliko bolj produktivna poraba javnega denarja kot študija o eksistencialnih tveganjih umetne inteligence.

Vsi so upravičeno zaskrbljeni zaradi dezinformacij, ki jih je ustvarila umetna inteligenca, kot je nedavna objava 'Lažnega Putina', da je Rusija napadena. Označevanje bi lahko veliko pripomoglo k zmanjšanju teh tveganj. Reklama republikanskega nacionalnega odbora, ki je sledila Bidnovi napovedi njegove predsedniške kandidature, je uporabila AI za ustvarjanje slik o tem, kaj bi se lahko zgodilo pod novim Bidnovim predsedovanjem, vendar je bila označena kot taka, kar je zmanjšalo tveganje napačnih informacij.

Preglednost za umetno inteligenco je nezahteven politični sad, ki bi ga oblikovalci politik morali zgrabiti, kot se zdi, da nekateri počnejo. Ta teden je podpredsednica Evropske komisije Vera Jourova pozvala tehnološka podjetja, naj označujejo vsebine, ki jih ustvari umetna inteligenca. V ZDA bo poslanec Ritchie Torres (DN.Y.) kmalu uvedel zakonodajo, ki bo od storitev, kot je ChatGPT, zahtevala, da razkrijejo, da je njihov rezultat "ustvarila umetna inteligenca."

Avtorska pravica in umetna inteligenca sta še en izziv. Potrebnih je nekaj jasnosti glede nadomestila lastnikom avtorskih pravic za uporabo njihovega gradiva za usposabljanje AI. Februarja je Getty tožil Stability AI v ZDA, češ da je podjetje AI kopiralo 12 milijonov Gettyjevih slik brez dovoljenja za usposabljanje svoje programske opreme za generiranje slik Stable Diffusion AI. Prejšnji teden je londonsko sodišče zaprosilo za blokiranje Stability AI v Združenem kraljestvu, ker je podjetje AI kršilo Gettyjeve avtorske pravice pri usposabljanju svojega sistema.

Ti primeri bodo obravnavani na sodišču. Vendar obstaja spodoben argument, da imetnikom avtorskih pravic sploh ni treba plačati nadomestila bodisi zaradi poštene uporabe bodisi zato, ker so za usposabljanje AI pridobljena samo nezaščitena dejstva in ideje. Poleg tega direktiva Evropske unije o avtorskih pravicah na enotnem digitalnem trgu iz leta 2019 vsebuje izjemo, ki dovoljuje besedilno in podatkovno rudarjenje spletnega avtorsko zaščitenega gradiva, razen če se lastnik avtorskih pravic temu odpove z uporabo tehnoloških zaščit, kot je blokator glav, da prepreči skeniranje. To bi lahko zajemalo podatke o usposabljanju AI.

Trenutni osnutek zakona Evropske unije o umetni inteligenci zahteva razkritje avtorsko zaščitenih del, ki se uporabljajo pri usposabljanju sistemov umetne inteligence. Zdi se, da je namen tega omogočiti lastnikom avtorskih pravic, da uveljavljajo svojo pravico do zavrnitve besedilnega in podatkovnega rudarjenja za usposabljanje AI. Lahko pa je tudi korak k nečemu dlje. To bi lahko privedlo do prisilnega licenčnega režima, ki bi imetnikom avtorskih pravic preprečil blokiranje usposabljanja AI, vendar bi jim zagotovil določeno nadomestilo za uporabo njihove intelektualne lastnine. Razvrščanje teh vprašanj avtorskih pravic bo zahtevalo osredotočeno pozornost oblikovalcev politike.

Zakon EU o umetni inteligenci prav tako zahteva, da so tvegani sistemi umetne inteligence podvrženi postopku certificiranja, katerega namen je zagotoviti, da so bila tveganja ustrezno ocenjena in sprejeti razumni ukrepi za ublažitev. Trenutni osnutek temeljne modele, kot je ChatGPT, obravnava kot tvegane sisteme, ki jih je treba certificirati, kar je potencialno breme, zaradi katerega je vodja Open AI Sama Altmana očitno rekel, da bi umaknil ChatGPT iz Evrope, če tega ne bi mogel izpolniti. Od takrat je to grožnjo opustil in rekel, da ne namerava oditi.

Vendar ima prav. Oblikovalci politik, ki iščejo konkretno težavo, bi se morali vprašati, kako bi sistem umetne inteligence za splošne namene, kot je ChatGPT, lahko potrdili kot »varnega«, ko se bodo številna tveganja pojavila šele, ko se bo sistem uporabljal v praksi.

To je le nekaj ključnih vprašanj umetne inteligence, ki bi morala skrbeti oblikovalce politik. Drugi vključujejo vplive vedno bolj zmogljivih sistemov umetne inteligence na zaposlovanje, izzive glede zasebnosti, ko podatki o usposabljanju vključujejo osebne podatke, težnjo h koncentraciji, ki jo povzročajo ogromni stroški in omrežni učinki programske opreme za usposabljanje z umetno inteligenco, uporabo pravil o odgovornosti iz razdelka 230 in uveljavljanje zakoni proti pristranskosti pri posojanju, stanovanjih in zaposlovanju, ko umetna inteligenca vodi ocene upravičenosti.

Oblikovalcem politik ni treba in ne smejo zatavati v meglena kraljestva, kjer avtonomni programi umetne inteligence uhajajo izpod nadzora in ogrožajo človeško preživetje. Imajo veliko dela pri soočanju s številnimi izzivi umetne inteligence v resničnem svetu.

Vir: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/