Etika umetne inteligence in zakonodaja o umetni inteligenci, ki tehta ključne načine za izvajanje te nedavno izdane listine pravic do umetne inteligence, vključno z in presenetljivo z neposredno uporabo umetne inteligence

Ni dvoma, da v vsakdanjem življenju potrebujemo načrte.

Če nameravate zgraditi tisto svojo dolgo načrtovano sanjsko hišo, bi bilo pametno, da najprej sestavite uporaben načrt.

Načrt na oprijemljiv in dokumentiran način prikaže kakršno koli vizionarsko perspektivo s širokimi očmi, ki je morda zaklenjena v vaši nogi. Tisti, ki bodo poklicani, da zgradijo vašo cenjeno domačijo, se bodo lahko sklicevali na načrt in določili podrobnosti o tem, kako opraviti delo. Načrti so priročni. Odsotnost načrta bo zagotovo problematična pri reševanju kakršnega koli kompleksnega opravila ali projekta.

Prestavimo ta nekoliko sentimentalen, a pristen poklon načrtom na področje umetne inteligence (AI).

Tisti med vami, ki se precej ukvarjate z umetno inteligenco, se morda nejasno zavedate, da je pomemben politično usmerjen načrt je bil nedavno izdan v ZDA, ki se očitno nanaša na prihodnost umetne inteligence. Neuradno znan kot Listina pravic AI, je uradni naslov razglašene bele knjige »Načrt za listino o pravicah umetne inteligence: Učinkovitost avtomatiziranih sistemov za Američane« in je na voljo na spletu.

Dokument je rezultat enoletnega truda in skrbne študije Urada za znanost in tehnološko politiko (OSTP). OSTP je zvezni subjekt, ki je bil ustanovljen sredi sedemdesetih let prejšnjega stoletja in služi za svetovanje ameriškemu predsedniku in izvršnemu uradu ZDA o različnih tehnoloških, znanstvenih in inženirskih vidikih nacionalnega pomena. V tem smislu lahko rečete, da je ta listina pravic AI dokument, ki ga je odobrila in potrdila obstoječa Bela hiša ZDA.

Listina pravic umetne inteligence prikazuje človekove pravice ki bi jih človeštvo moralo imeti glede na prihod umetne inteligence v naše vsakdanje življenje. To pomembno točko poudarjam, ker so bili nekateri ljudje sprva zmedeni, da je morda to nekakšna potrditev pravne osebnosti umetne inteligence in da je to litanija pravic za čutečo umetno inteligenco in humanoidne robote. Ne, nismo še tam. Kot boste videli čez trenutek, nismo niti blizu čuteči umetni inteligenci, kljub naslovom pasic, ki nam zdijo, da nam govorijo drugače.

V redu, torej potrebujemo načrt, ki določa človekove pravice v dobi umetne inteligence?

Da, zagotovo ga imamo.

Skoraj bi morali biti zaprti v jami in brez dostopa do interneta, da ne bi vedeli, da umetna inteligenca že in vedno bolj posega v naše pravice. Nedavno obdobje umetne inteligence je bilo sprva obravnavano kot AI za dobro, kar pomeni, da bi lahko uporabili AI za izboljšanje človeštva. Za petami AI za dobro prišlo spoznanje, da smo potopljeni tudi v AI za slabo. To vključuje umetno inteligenco, ki je bila zasnovana ali samospremenjena tako, da je diskriminatorna in omogoča računalniške izbire, ki povzročajo neupravičene pristranskosti. Včasih je umetna inteligenca zgrajena tako, medtem ko v drugih primerih zavije na to neugodno ozemlje.

Za moje stalno in obsežno pokrivanje in analizo zakona o umetni inteligenci, etike umetne inteligence in drugih ključnih tehnoloških in družbenih trendov umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Razpakiranje listine pravic umetne inteligence

Prej sem razpravljal o listini pravic umetne inteligence in bom tukaj na hitro povzel.

Poleg tega, če bi radi izvedeli moje poglobljene prednosti in slabosti nedavno izdanega zakona o pravicah AI, sem svojo analizo podrobno opisal v objavi na pravnik, Glej povezava tukaj. pravnik je opazna spletna stran s pravnimi novicami in komentarji, splošno znana kot nagrajena storitev pravnih novic, ki jo poganja globalna ekipa študentov prava novinarjev, urednikov, komentatorjev, dopisnikov in razvijalcev vsebine, in ima sedež na šoli Univerze v Pittsburghu Law v Pittsburghu, kjer se je začel pred več kot 25 leti. Čestitamo izjemni in pridni ekipi na pravnik.

V listini o pravicah umetne inteligence je pet ključnih kategorij:

  • Varni in učinkoviti sistemi
  • Algoritemska diskriminacijska zaščita
  • Zasebnost podatkov
  • Obvestilo in pojasnilo
  • Človeške alternative, premislek in rezerva

Upoštevajte, da jih nisem oštevilčil od ena do pet, ker bi to lahko pomenilo, da so v določenem zaporedju ali da je ena od pravic na videz pomembnejša od druge. Domnevali bomo, da so vsaka svoje zasluge. Vsi so v nekem smislu enako zaslužni.

Kot kratko navedbo, kaj vsaka sestoji iz, je tukaj izvleček iz uradne bele knjige:

  • Varni in učinkoviti sistemi: »Morali bi biti zaščiteni pred nevarnimi ali neučinkovitimi sistemi. Avtomatizirane sisteme je treba razviti s posvetovanjem z različnimi skupnostmi, zainteresiranimi stranmi in strokovnjaki na tem področju, da bi prepoznali pomisleke, tveganja in morebitne vplive sistema.«
  • Algoritemska zaščita pred diskriminacijo: »Ne bi smeli biti soočeni z diskriminacijo zaradi algoritmov, sisteme pa je treba uporabljati in oblikovati na pravičen način. Algoritemska diskriminacija se pojavi, ko avtomatizirani sistemi prispevajo k neupravičeni različni obravnavi ali vplivom, ki niso naklonjeni ljudem na podlagi njihove rase, barve kože, etnične pripadnosti, spola (vključno z nosečnostjo, porodom in povezanimi zdravstvenimi stanji, spolno identiteto, medspolnim statusom in spolno usmerjenostjo), vere, starosti , nacionalnega izvora, invalidnosti, statusa veterana, genetskih podatkov ali katere koli druge klasifikacije, zaščitene z zakonom.«
  • Zasebnost podatkov: »Morali bi biti zaščiteni pred zlorabami podatkov z vgrajenimi zaščitami in morali bi imeti pooblastilo za to, kako se vaši podatki uporabljajo. Pred kršitvami zasebnosti bi morali biti zaščiteni z odločitvami zasnove, ki zagotavljajo, da so takšne zaščite privzeto vključene, vključno z zagotavljanjem, da je zbiranje podatkov v skladu z razumnimi pričakovanji in da se zbirajo samo podatki, ki so nujno potrebni za določen kontekst.«
  • Obvestilo in pojasnilo: »Morate vedeti, da se uporablja avtomatiziran sistem, in razumeti, kako in zakaj prispeva k rezultatom, ki vplivajo na vas. Načrtovalci, razvijalci in uvajalci avtomatiziranih sistemov bi morali zagotoviti splošno dostopno dokumentacijo v preprostem jeziku, vključno z jasnimi opisi celotnega delovanja sistema in vloge, ki jo igra avtomatizacija, obvestilom o tem, da se taki sistemi uporabljajo, posameznikom ali organizacijo, odgovorno za sistem, in razlagami rezultati, ki so jasni, pravočasni in dostopni.«
  • Človeške alternative, premislek in pomoč: »Morali bi imeti možnost, da se odjavite, kjer je to primerno, in imeti dostop do osebe, ki lahko hitro razmisli in odpravi težave, na katere naletite. Morali bi imeti možnost, da se odjavite od avtomatiziranih sistemov v korist človeške alternative, kjer je to primerno.«

Na splošno so to vidiki človekovih pravic, o katerih se že kar nekaj časa razpravlja v kontekstu etike umetne inteligence in prava o umetni inteligenci, glejte mojo pokritost, npr. povezava tukaj. Zdi se, da bela knjiga ne potegne čudežno zajca iz klobuka glede neke na novo odkrite ali odkrite pravice, ki doslej ni bila pojasnjena v kontekstu obdobja umetne inteligence.

To je vredu.

Lahko bi trdili, da njihovo zbiranje v eno lepo zapakirano in formalizirano zbirko zagotavlja ključno storitev. Plus, s tem, da ste pomazani kot priznani Listina pravic AI, s čimer se vsa zadeva dodatno odkrito in spretno postavlja v zavest javne sfere. Združuje obstoječo množico različnih razprav v edinstven sklop, ki ga je zdaj mogoče razglasiti in posredovati vsem vrstam zainteresiranih strani.

Dovolite mi, da ponudim ta seznam pozitivnih odzivov na napovedano listino pravic AI:

  • Zagotavlja bistveno zbirko temeljnih načel
  • Služi kot načrt ali temelj za gradnjo
  • Deluje kot vokaliziran poziv k dejanju
  • Spodbudi zanimanje in pokaže, da gre za resne pomisleke
  • Združuje množico različnih razprav
  • Spodbuja in prispeva k prizadevanjem za uvajanje etične umetne inteligence
  • Bo nedvomno prispevalo k vzpostavitvi zakonov o AI
  • Ostalo

Upoštevati moramo tudi manj kot ugodne odzive, pri čemer je treba upoštevati, da je treba opraviti še veliko dela in da je to šele začetek dolgega potovanja na naporni poti upravljanja umetne inteligence.

Kot take nekoliko ostre ali lahko rečemo konstruktivne kritike o listini pravic umetne inteligence vključujejo:

  • Ni pravno izvršljivo in popolnoma nezavezujoče
  • Samo svetovanje in ne velja za vladno politiko
  • Manj obsežno v primerjavi z drugimi objavljenimi deli
  • Sestoji predvsem iz širokih konceptov in nima podrobnosti o izvajanju
  • Težko bo spremeniti v dejansko izvedljive praktične zakone
  • Na videz tiho o grozečem vprašanju morebitne prepovedi umetne inteligence v nekaterih kontekstih
  • Obrobno priznava prednosti uporabe umetne inteligence, ki je dobro zasnovana
  • Ostalo

Morda je bil najbolj opazen oster komentar osredotočen na dejstvo, da ta listina pravic AI ni pravno izvršljiva in zato ne drži vode, ko gre za vzpostavitev jasnih ciljev. Nekateri so rekli, da čeprav je bela knjiga koristna in spodbudna, očitno nima zob. Sprašujejo se, kaj lahko nastane iz domnevno votlih zob izvrstnih pravil.

Te zagrizene pripombe bom obravnaval v trenutku.

Medtem pa bela knjiga v izobilju navaja omejitve tega zakona o pravicah umetne inteligence:

  • »Načrt za listino pravic AI je nezavezujoč in ne predstavlja politike ameriške vlade. Ne nadomešča, spreminja ali usmerja razlage katerega koli obstoječega statuta, uredbe, politike ali mednarodnega instrumenta. Ne predstavlja zavezujoče smernice za javnost ali zvezne agencije in zato ne zahteva skladnosti z načeli, opisanimi tukaj. Prav tako ni odločilno, kakšno bo stališče vlade ZDA v kakršnih koli mednarodnih pogajanjih. Sprejetje teh načel morda ne bo izpolnjevalo zahtev obstoječih zakonov, predpisov, politik ali mednarodnih instrumentov ali zahtev zveznih agencij, ki jih uveljavljajo. Ta načela niso namenjena in ne prepovedujejo ali omejujejo nobene zakonite dejavnosti vladne agencije, vključno z dejavnostmi pregona, nacionalne varnosti ali obveščevalnimi dejavnostmi« (v beli knjigi).

Za tiste, ki so hitro omajali listino o pravicah umetne inteligence kot pravno nezavezujočo, naredimo miselni eksperiment o tej zbadajoči obtožbi. Recimo, da je bila bela knjiga izdana in da ima vso veljavo zakona. Upam si trditi, da bi bil rezultat nekoliko kataklizmičen, vsaj kar zadeva tako pravne kot družbene odzive na razglas.

Zakonodajalci bi bili razburjeni, ker prizadevanja niso izvedla normativnih postopkov in pravnih postopkov pri sestavljanju takšnih zakonov. Podjetja bi bila upravičeno jezna, če bi se pojavili novi zakoni brez zadostnega obvestila in zavedanja o tem, kaj ti zakoni so. Sledilo bi vsakovrstno osuplost in ogorčenje.

Ni dober način, da težimo k utrjevanju pravic človeštva v dobi umetne inteligence.

Spomnite se, da sem prej začel to razpravo z omembo vrednosti in vitalnosti načrtov.

Predstavljajte si, da je nekdo preskočil korak izdelave načrtov in se takoj lotil gradnje vaše sanjske hiše. Kaj misliš, kakšna bi bila hiša? Zdi se poštena stava, da se hiša ne bo posebej ujemala s tem, kar ste imeli v mislih. Nastala domačija je lahko popolna zmeda.

Bistvo je, da resnično potrebujemo načrte in zdaj jih imamo, da bi lahko napredovali pri ugotavljanju preudarnih zakonov o umetni inteligenci in krepitvi etičnih posvojitev umetne inteligence.

Zato bi rad obravnaval načine, na katere je mogoče ta načrt listine pravic AI spremeniti v hišo, tako rekoč. Kako bomo uporabili načrt? Kateri so primerni naslednji koraki? Ali lahko ta načrt zadostuje ali potrebuje več mesa na kosteh?

Preden preidemo na te zajetne zadeve, bi se rad najprej prepričal, da smo vsi na isti strani glede narave umetne inteligence in tega, iz česa sestoji današnji status.

Postavljanje rekordov glede današnje umetne inteligence

Rad bi podal izjemno odločno izjavo.

Ste pripravljeni?

Danes ni nobene umetne inteligence, ki bi bila čuteča.

Tega nimamo. Ne vemo, ali bo čuteča umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali bo čuteča umetna inteligenca nekako čudežno spontano nastala v obliki računalniške kognitivne supernove (običajno imenovane singularnost, glejte moje poročanje na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteči AI, bi lahko šla ta razprava v radikalno drugačno smer. Čuteča umetna inteligenca bi bila domnevno človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli superinteligentno umetno inteligenco, je možno, da bi bila takšna umetna inteligenca na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne umetne inteligence kot možnosti glejte pokritost tukaj).

Močno predlagam, da stvari ostanemo prizemljene in razmislimo o današnji računalniški nečuteči umetni inteligenci.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

Bodite zelo previdni pri antropomorfiziranju današnje umetne inteligence.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivnostna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to težje, kot se morda zdi. Obstaja velika verjetnost, da bodo tudi z razmeroma obsežnim testiranjem pristranskosti še vedno vgrajene v modele za ujemanje vzorcev ML/DL.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vse to ima zelo pomembne posledice za etiko umetne inteligence in ponuja priročno okno v pridobljene izkušnje (še preden se zgodijo vse lekcije), ko gre za poskus zakonodaje umetne inteligence.

Poleg uporabe etičnih predpisov umetne inteligence na splošno obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Vnaprej opozarjajo, da bomo, če bomo sprejeli nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z zajezitvijo napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti.

V prejšnjih stolpcih sem obravnaval različna nacionalna in mednarodna prizadevanja za oblikovanje in uveljavitev zakonov, ki urejajo umetno inteligenco, glejte povezava tukaj, na primer. Pokril sem tudi različna načela in smernice etike umetne inteligence, ki so jih opredelili in sprejeli različni narodi, vključno na primer s prizadevanji Združenih narodov, kot je Unescov sklop etike umetne inteligence, ki ga je sprejelo skoraj 200 držav, glej povezava tukaj.

Tukaj je koristen temeljni seznam etičnih meril ali značilnosti umetne inteligence v zvezi s sistemi umetne inteligence, ki sem jih že natančno raziskal:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Ta načela etike umetne inteligence naj bi resno uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo prizadevanja za razvoj umetne inteligence, in celo tistimi, ki na koncu izvajajo in vzdržujejo sisteme umetne inteligence.

Vse zainteresirane strani v celotnem življenjskem ciklu razvoja in uporabe umetne inteligence so obravnavane v okviru upoštevanja že vzpostavljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da morajo »samo koderji« ali tisti, ki programirajo AI, upoštevati pojme etike AI. Kot je bilo že poudarjeno v tem dokumentu, je potrebna vas, da zasnuje in uporabi umetno inteligenco, za kar mora biti cela vas seznanjena in spoštovati predpise etike umetne inteligence.

Zdaj, ko sem postavil koristne temelje, smo pripravljeni, da se še bolj poglobimo v Listino pravic umetne inteligence.

Štirje bistveni načini za izvajanje listine pravic AI

Nekdo vam izroči načrt in vam reče, da se lotite dela.

Kaj storiti?

V primeru Listine o pravicah umetne inteligence kot načrta upoštevajte te štiri bistvene korake pri napredovanju:

  • Služi kot prispevek k oblikovanju zakonov AI: Uporabite načrt za pomoč pri oblikovanju zakonov o umetni inteligenci, pri čemer upajmo, da to storite na usklajeni podlagi na zvezni, državni in lokalni ravni (morda tudi v pomoč mednarodnim pravnim prizadevanjem za umetno inteligenco).
  • Pomoč pri širšem sprejemanju etike umetne inteligence: Uporabite načrt za spodbujanje formulacij etike umetne inteligence (včasih imenovanih "mehki zakoni" v primerjavi s pravno zavezujočimi "trdimi zakoni"), s čimer boste navdihnili in vodili podjetja, posameznike, vladne subjekte in druge interesne skupine k boljši in doslednejši etični Rezultati AI.
  • Oblikujte razvojne dejavnosti AI: Uporabite načrt za spodbujanje ustvarjanja razvojnih metodologij AI in vidikov usposabljanja, s čimer poskušate pridobiti razvijalce AI in tiste, ki razvijajo ali uporabljajo AI, da se bolje zavedajo, kako oblikovati AI v skladu z zaželenimi predpisi etike AI in v predvidevanju. bližajočih se zakonov o umetni inteligenci.
  • Motivirajte pojav AI za pomoč pri nadzoru AI: Uporabite načrt za oblikovanje umetne inteligence, ki bo uporabljena kot nadzor in ravnovesje proti drugi umetni inteligenci, ki bi lahko zavila na neugodno ozemlje. To je eno od tistih makroskopskih stališč, s katerimi lahko uporabimo prav tisto, kar se nam zdi navidezno zaskrbljujoče, da (ironično bi lahko rekli) tudi pomaga pri naši zaščiti.

O vsakem od zgoraj omenjenih štirih korakov sem razpravljal v svojih objavah v kolumni.

Za to razpravo bi se rad osredotočil na četrti navedeni korak, in sicer na to, da lahko listina o pravicah umetne inteligence služi kot motivacija za pojav umetne inteligence za pomoč pri nadzoru umetne inteligence. To je nekoliko šokanten ali presenetljiv korak za mnoge, ki še niso povsem vstopili v to področje napredovanja umetne inteligence.

Dovolite mi, da izpopolnim.

Preprosta analogija bi morala pomagati. Danes smo vsi vajeni kršitev kibernetske varnosti in hekerjev. Skoraj vsak dan slišimo ali smo prizadeti z najnovejšo vrzeljo v naših računalnikih, ki bo zlobnim zlorabcem omogočila, da se polastijo naših podatkov ali namestijo podlo kos izsiljevalske programske opreme na naše prenosnike.

Eden od načinov za boj proti tem podlim poskusom je uporaba specializirane programske opreme, ki poskuša preprečiti te vlome. Skoraj zagotovo imate v računalniku doma ali v službi protivirusni programski paket. Na vašem pametnem telefonu je verjetno nekaj podobnega, ne glede na to, ali se zavedate, da je tam ali ne.

Mislim, da se morate včasih boriti proti ognju z ognjem (glejte moje poročanje o tem, na primer na povezava tukaj in povezava tukaj).

V primeru umetne inteligence, ki pristane v kraljestvu verboten AI za slabo, lahko iščemo uporabo AI za dobro ki se bori s tem zlonamernim AI za slabo. To seveda ni čudežno zdravilo. Kot veste, se med zlobneži, ki želijo vdreti v naše računalnike, in napredkom na področju zaščite kibernetske varnosti nenehno odvija prepir mačke z mišjo. To je skoraj neskončna igra.

Umetno inteligenco lahko uporabimo, da se spopademo z umetno inteligenco, ki je šla po prepovedani poti. To bo pomagalo. Še posebej ne bo srebrna paleta, saj bo škodljiva umetna inteligenca, ki je tarča, skoraj zagotovo zasnovana tako, da se bo izognila kakršni koli takšni zaščiti. To bo stalna mačka z mišjo AI proti AI.

V vsakem primeru bo umetna inteligenca, s katero se zaščitimo, zagotovila določeno mero zaščite pred slabo umetno inteligenco. Zato moramo nedvomno izdelati AI, ki nas lahko varuje ali ščiti. Prav tako bi si morali prizadevati za izdelavo zaščitne umetne inteligence, ki bi se prilagajala, ko se prilagaja slaba umetna inteligenca. Prišlo bo do ostrega videza bliskovite mačke in miši.

Ta razširitev vloge umetne inteligence ni všeč vsem.

Tisti, ki AI že dojemajo kot homogeni amorfni konglomerat, bi ob tem lažnem gambitu AI proti AI dobili kurjo kožo in nočne more. Če poskušamo ogenj zoperstaviti ognju, morda le zakurimo še večji požar. AI bo postal ogromen kres, ki ga ne bomo več nadzorovali in se bo odločil zasužnjiti človeštvo ali pa nas izbrisati s planeta. Ko gre za razpravo o umetni inteligenci kot eksistencialnem tveganju, smo običajno prepričani, da se bo vsa umetna inteligenca združila, glejte mojo razpravo o teh vprašanjih na povezava tukaj. Vidite, rečeno nam je, da bo vsak kos umetne inteligence zgrabil svoje brate umetne inteligence in postal ena velika gospodarska enotna družina.

To je grozljiv in izrazito vznemirjujoč scenarij čuteče umetne inteligence kot brezhibne mafije vsi za enega in eden za vse.

Čeprav lahko svobodno ugibate o tem, da bi se to nekoč lahko zgodilo, vam zagotavljam, da je AI, ki ga imamo danes, sestavljen iz polnih tovornjakov nepovezanih različnih programov AI, ki nimajo posebnega načina zarote med seboj.

Ob tem sem prepričan, da bodo tisti, ki goreče verjamejo v teorije zarote AI, vztrajali, da sem to namenoma povedal, da bi prikril resnico. Aha! Mogoče me izplača današnja umetna inteligenca, ki že načrtuje velik prevzem umetne inteligence (ja, gospod, kopal se bom v bogastvu, ko bodo vladali AI). Ali pa zagotovo ne podpiram tega drugega zornega kota, morda se slepo ne zavedam, kako umetna inteligenca na skrivaj spletkari za našimi hrbti. Predvidevam, da bomo morali počakati in videti, ali sem del državnega udara z umetno inteligenco ali umetna inteligenca (ojej, to boli).

Če se vrnemo k zemeljskim premislekom, na kratko raziščimo, kako je mogoče sodobno umetno inteligenco uporabiti za pomoč pri izvajanju listine pravic do umetne inteligence. To bom priročno in na kratko označil kot Dober AI.

Uporabili bomo pet ključnih kamnov, utelešenih v Listini pravic umetne inteligence:

  • Dober AI za promocijo Varni in učinkoviti sistemi: Kadarkoli ste podvrženi sistemu umetne inteligence ali ga uporabljate, Good AI poskuša ugotoviti, ali je umetna inteligenca, ki se uporablja, nevarna ali neučinkovita. Ob takem zaznavanju vas lahko dober AI opozori ali izvede druge ukrepe, vključno z blokiranjem slabega AI.
  • Dober AI za zagotavljanje Algoritemska zaščita pred diskriminacijo: Med uporabo sistema AI, ki lahko vsebuje diskriminatorne algoritme, je Dober AI poskuša ugotoviti, ali obstaja neustrezna zaščita za vas, in skuša ugotoviti, ali v uporabljeni AI dejansko obstajajo neupravičene pristranskosti. Dobra umetna inteligenca bi vas lahko obveščala in potencialno samodejno poročala o drugi umetni inteligenci različnim organom, kot lahko določajo zakoni o umetni inteligenci in pravne zahteve.
  • Dober AI za ohranjanje Zasebnost podatkov: Ta vrsta dobre umetne inteligence vas poskuša zaščititi pred vdori v zasebnost podatkov. Ko želi drug AI od vas zahtevati podatke, ki jih morda resnično ne potrebujete, vas bo Good AI opozoril na prekoračitev. Dobra umetna inteligenca lahko tudi potencialno prikrije vaše podatke na način, ki bo po posredovanju drugemu umetni inteligenci še vedno ohranil vaše pravice do zasebnosti podatkov. itd.
  • Dober AI za vzpostavitev Obvestilo in pojasnilo: Verjetno se bomo vsi srečali s sistemi umetne inteligence, ki jim zelo primanjkuje pravilnih in ustreznih obvestil in ki na žalost ne prikažejo ustrezne razlage za svoja dejanja. Dobra umetna inteligenca lahko poskuša razlagati ali zasliševati drugo umetno inteligenco, pri čemer morebiti identificira obvestila in pojasnila, ki bi morala biti zagotovljena. Tudi če to v danem primeru ni izvedljivo, vas bo dobra umetna inteligenca vsaj opozorila na napake druge umetne inteligence in morda poročala o umetni inteligenci pooblaščenim organom na podlagi predpisanih zakonov o umetni inteligenci in pravnih zahtev.
  • Dober AI za ponudbo Človeške alternative, premislek in pomoč: Recimo, da uporabljate sistem umetne inteligence in se zdi, da umetna inteligenca ni kos tej nalogi. Morda se ne zavedate, da se stvari poslabšajo, ali pa ste nekoliko previdni in niste prepričani, kaj storiti glede situacije. V takem primeru bi dobra umetna inteligenca tiho preučevala, kaj počne druga umetna inteligenca, in bi vas lahko opozorila na pomembne pomisleke glede te umetne inteligence. Nato boste pozvani, da zahtevate človeško alternativo AI (ali pa bi Good AI lahko to storil v vašem imenu).

Da bi razumeli, kako to vrsto Dober AI mogoče razviti in uporabiti, glejte mojo priljubljeno in visoko ocenjeno knjigo AI (v čast mi je reči, da je bila označena kot »deset najboljših«) o tem, kar sem na splošno imenoval angeli varuhi AI, glejte povezava tukaj.

zaključek

vem kaj misliš Če imamo dobro umetno inteligenco, ki je zasnovana tako, da nas ščiti, predpostavimo, da se dobra umetna inteligenca pokvari in postane slaba umetna inteligenca. Znana ali razvpita latinska fraza se zdi popolnoma primerna za to možnost: Quis custodiet ipsos custodes?

Besedno zvezo pripisujejo rimskemu pesniku Juvenalu in jo najdemo v njegovem delu z naslovom Satiri, in se lahko ohlapno prevede kot tisti, ki bo varoval ali pazil na same stražarje. Številni filmi in TV oddaje, kot npr Star Trek so večkrat uporabili to linijo.

To je zagotovo zato, ker je odlična točka.

Seveda bodo vsi zakoni o umetni inteligenci, ki bodo sprejeti, morali zajemati tako slabo umetno inteligenco kot celo dobro umetno inteligenco, ki se pokvari. Zato bo ključno napisati razumne in celovite zakone o AI. Zakonodajalci, ki samo poskušajo vreči naključne zakonitosti ob steno in upajo, da se držijo zakonov o umetni inteligenci, bodo močno zgrešili cilj.

Tega ne potrebujemo.

Nimamo niti časa niti ne moremo nositi družbenih stroškov, da bi se spopadli z neustrezno oblikovanimi zakoni o umetni inteligenci. Poudaril sem, da smo žal včasih priča novim zakonom, povezanim z umetno inteligenco, ki so slabo sestavljeni in polni najrazličnejših pravnih težav, glejte na primer mojo poskusno analizo zakona o reviziji pristranskosti umetne inteligence v mestu New York (NYC) na povezava tukaj.

Poskrbimo, da ustrezno uporabimo načrt listine pravic do umetne inteligence, ki ga imamo zdaj v rokah glede umetne inteligence. Če zanemarimo načrt, smo izgubili, ker smo pospešili svojo igro. Če napačno izvajamo načrt, nas bodi sram, ker smo uzurpirali koristne temelje.

Cenjeni rimski pesnik Juvenal je rekel še nekaj, kar lahko uporabimo v tej okoliščini: Anima sana in corpore sano.

Na splošno se to prevede v trditev, da bi bilo pametno imeti zdrav ali zdrav duh in zdravo telo. Po Juvenalu nam to omogoča, da zdržimo kakršen koli napor, in bo zagotovo edina pot do življenja v miru ali kreposti.

Čas je, da uporabimo zdrav razum in zdravo telo, da zagotovimo, da bodo človeštvu ohranjene in trdno utrjene človekove pravice v nastajajočem svetu vseprisotne in včasih neugodne umetne inteligence. To je dober nasvet Rimljanov, ki bi se ga morali držati v današnji naglici sredi epohe umetne inteligence in v prihodnosti, ki je odločilno polna tako dobre kot slabe umetne inteligence.

Vir: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- list-o-pravicah-vključno-in-presenetljivo-z-uporabo-ai-odkrito/