Etika umetne inteligence in zakon o umetni inteligenci pravijo, da bi z umetno inteligenco lahko pametno dosegli usklajevanje človekovih vrednot

V današnji kolumni bom združil nešteto na videz različnih tem, povezanih z AI, v eno lepo tkano tkanino.

Ste pripravljeni?

Predstavljajte si, da uporabljate aplikacijo, ki poganja AI, ki vam pomaga pri opravljanju neke pomembne naloge. Morda je zadeva finančna ali pa je lahko povezana z zdravjem. Bistvo je, da ste odvisni od umetne inteligence, da naredi pravo stvar in deluje na domnevno varen in zanesljiv način.

Recimo, da AI zavije na neetično ozemlje.

Morda se ne zavedate, da AI to počne.

Na primer, umetna inteligenca se lahko zanaša na morebitne skrite diskriminatorne dejavnike, kot sta rasa ali spol, čeprav morda nimate nobenega uspešnega načina za odkrivanje neprimerne uporabe. Tukaj ste, povsem sami, s krajšo palico prek umetne inteligence, ki je bila zasnovana od samega začetka na problematičen način ali pa se ji je uspelo usmeriti v zapleteno in mejno etično ogroženost (več bom povedal o to v trenutku).

Kaj lahko storite ali kaj lahko storite glede umetne inteligence, ki se odloči za neetično pot?

Poleg tega, da poskušam vnaprej sestaviti AI, tako da ne bo izvajal tovrstnih zahrbtnih dejanj, sem že prej podrobno omenil, da obstaja naraščajoče zanimanje za vdelavo Etično preverjanje AI komponento v rastočo močvirje sicer divjega zahoda, vsestranske sisteme umetne inteligence, ki jih vržejo na trg. Zamisel je, da bi lahko uporabili dodatno umetno inteligenco za preverjanje in ravnovesje, da bi preprečili, da bi aplikacija, ki je vgrajena v AI, zašla v polje etičnih razsežnosti. Ta dodana umetna inteligenca je lahko zunaj ciljne aplikacije umetne inteligence ali pa je lahko komponenta, vdelana ali vsajena neposredno v umetno inteligenco, ki jo želimo dvakrat preveriti.

Kot sem že povedal, glej povezava tukaj: »Nedavno nastajajoči trend je poskus vgradnje etičnih varoval v umetno inteligenco, ki bo ujela, ko bo preostanek sistema umetne inteligence začel presegati vnaprej določene etične meje. V nekem smislu je cilj uporabiti AI, da se prepreči, da bi zašel etično narobe. Lahko bi rekli, da si prizadevamo, da bi se umetna inteligenca sama pozdravila« (Lance Eliot, »Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI From Acting Up«, Forbes, 28. marec 2022).

Morda vas bo zanimala tudi moja knjiga o Boti varuhi AI, včasih imenovan tudi angeli varuhi, ki pokriva tehnične podlage tega najsodobnejšega dvojnega preverjanja, vgrajenega AI-in-in-AI, glejte povezava tukaj.

Bistvo je, da bi vašo slanino na srečo lahko rešili z uporabo vdelanega elementa AI za dvojno preverjanje etike, ki je bil oblikovan in vstavljen v aplikacijo AI, ki jo uporabljate. Toda ali bo to zadosten varuh, ki bo res poskrbel, da vas AI ne bo povsem otrdel in se podal na še tako škodljiva tla?

Vidite, aplikacija AI bi lahko delovala navidezno nezakonito deluje.

Ena stvar je imeti AI, ki gre v sivo območje tega, kar menimo, da je etično ali neetično vedenje. Enako zaskrbljujoče vedenje in verjetno vse hujša zaskrbljenost povzročita umetno inteligenco, ki preprosto preskoči morskega psa in se spusti v zanič temo popolnoma nezakonitih dejanj.

Nezakonita umetna inteligenca je slaba. Dovoliti, da nezakonita umetna inteligenca ostane brez nadzora, je slabo. Nekateri pravniki so odkrito zaskrbljeni, da bosta pojav in razširjenost umetne inteligence postopoma in grozljivo spodkopala naš videz pravilo zakona, glejte mojo analizo na povezava tukaj.

Počakajte trenutek, boste morda rekli.

Morda bi vas zamikalo, da bi razvijalci umetne inteligence nikoli programirajo svoj AI, da bo deloval v nasprotju z zakonom. Nepredstavljivo. To bi storili samo zlobni zlikovci (ki, mimogrede, ne pozabite, da obstajajo tisti, ki namerno oblikujejo in uporabljajo AI za zlobne namene, vse večje področje zanimanja kriminalcev in drugih, ki želijo uporabiti AI za nečedne dejavnosti).

Oprostite, vendar je domneva, da bodo vsi razvijalci umetne inteligence, ki niso zlobni, strogo poskrbeli, da bo njihova umetna inteligenca v celoti spoštovala zakone. Lahko se zgodi, da se umetna inteligenca sama prilagodi in zaide v nezakonito dejavnost. Seveda obstaja tudi možnost, da so razvijalci umetne inteligence bodisi želeli, da umetna inteligenca deluje nezakonito, ali pa se niso zavedali, kaj je nezakonito v primerjavi s pravnimi dejanji, ko so izdelovali umetno inteligenco (da, to je povsem mogoče, in sicer da osredotočena ekipa za vse tehnološke umetne inteligence morda ne pozna pravnih zvijač svojega umetne inteligence, kar ni opravičljivo, a se kljub temu dogaja zaskrbljujoče pogosto).

Kaj se lahko glede tega naredi?

Še enkrat, poleg poskušanja zagotoviti, da je umetna inteligenca zunaj vrat železna in zakonita, dodaten pristop k pridobivanju moči vključuje vdelavo ali vsaditev komponente umetne inteligence, ki zakonito dvojno preverja preostanek aplikacije umetne inteligence. Ta dodana umetna inteligenca, ki tiho in pogosto nenapovedano, opazuje preostalo umetno inteligenco, da bi ugotovila, ali bo umetna inteligenca postala lopov ali vsaj presegla meje zakonskih ali regulativnih omejitev.

Zdaj imamo dve vrsti dvojnega preverjanja AI, ki sta potencialno vdelani v aplikacijo AI:

  • Dvojno preverjanje etike AI: Ta komponenta ali dodatek AI v realnem času oceni preostali del AI glede etičnih in neetičnih vedenj, ki jih ta kaže
  • AI pravni dvojni pregled: Ta komponenta ali dodatek umetne inteligence v realnem času oceni preostali del umetne inteligence, da zagotovi, da ostane znotraj zakonitih temeljev in da umetna inteligenca odkrije nastajajoče nezakonite dejavnosti

Da pojasnimo, to so razmeroma nove zamisli in kot taka je lahko AI, ki ga uporabljate danes, v katerem koli od teh trenutnih pogojev:

  • AI, ki sploh nima vključenih dvokontrolnikov
  • Umetna inteligenca, ki ima vključeno dvojno preverjanje etike AI, vendar nima drugih dvojnih preverjanj
  • Umetna inteligenca, ki ima vključeno pravno dvojno preverjanje AI, vendar nima drugih dvojnih preverjanj
  • Umetna inteligenca, ki ima dvojno preverjanje etike in pravnega dvojnega preverjanja umetne inteligence
  • Ostalo

Obstaja nekaj izrazito zapletenih vidikov, ko dvojni preverjevalnik AI Ethics in AI Legal dvojni preverjevalnik delujeta drug ob drugem v aplikaciji AI kot sorodna brat in sestra. To je vrsta dualizma, ki jo je težje uskladiti, kot bi morda domnevali (mislim, da vsi vemo, da imajo bratje in sestre lahko najtesnejše vezi, čeprav se lahko občasno tudi prepirajo kot kurjaki in si močno nasprotujejo pogledi).

Dolgo sem razpravljal o tej vrsti težav dualizem: »V AI za družbeno dobro se pojavlja zanemarjen dualizem, ki vključuje pomanjkanje vloge umetne moralne agencije in umetnega pravnega sklepanja v naprednih sistemih AI. Prizadevanja raziskovalcev umetne inteligence in razvijalcev umetne inteligence so se večinoma osredotočala na to, kako oblikovati in vgraditi umetne moralne agente, ki bodo usmerjali moralno odločanje, ko sistem umetne inteligence deluje na terenu, vendar se niso osredotočili in povezali z uporabo zmožnosti umetnega pravnega sklepanja. , ki je enako potreben za trdne moralne in pravne rezultate« (Lance Eliot, »The Neglected Dualism of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good«, letna konferenca CRCS univerze Harvard 2020, Harvard Center for Research and Computation Society)

Če želite razpravljati o tem, zakaj lahko pride do napetosti med dvopreverjevalcem etike umetne inteligence in pravnim dvojnim preverjevalcem umetne inteligence, boste morda našli ta opazen citat osupljive konceptualne vrednosti: »Zakon lahko dovoljuje določeno dejanje, čeprav je to dejanje nemoralno; in zakon lahko prepoveduje dejanje, čeprav je to dejanje moralno dopustno ali celo moralno zahtevano« (Shelly Kagan, Meje morale, 1998).

Nekoliko premaknimo naš fokus in poglejmo, kako se ti dvojni kontrolniki ujamejo v drugo zelo natančno preučeno temo AI, namreč Odgovorni AI ali usklajeno razmišljanje o uskladitvi človeških vrednot in umetne inteligence.

Splošno mnenje je, da želimo AI, ki spoštuje pravilne in zaželene človeške vrednote. Nekateri to označujejo kot Odgovorni AI. Podobno razpravljajo tudi drugi Odgovorna umetna inteligenca, Zaupanja vreden AIin Poravnava AI, ki se vsi dotikajo istega temeljnega načela. Za mojo razpravo o teh pomembnih vprašanjih glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Kako lahko dosežemo, da se AI uskladi s človeškimi vrednotami?

Kot je bilo že omenjeno, upamo, da se bodo razvijalci umetne inteligence zavedali razvoja umetne inteligence, ki doseže upoštevanje odgovorne umetne inteligence. Na žalost morda ne bodo zaradi prej pojasnjenih razlogov. Poleg tega lahko to poskušajo storiti, vendar se kljub temu umetna inteligenca na koncu samoprilagodi izven izstopajočega področja etičnega vedenja ali morda v nezakonite vode.

V redu, potem moramo razmisliti o naših priročnih dandy dvokontrolerjih kot o sredstvu za zmanjšanje teh tveganj in izpostavljenosti. Uporaba dobro zasnovanega dvojnega preverjanja etike AI lahko bistveno pomaga pri usklajevanju AI s človeškimi vrednotami. Podobno lahko uporaba dobro zasnovanega pravnega dvojnega preverjanja AI bistveno pomaga pri usklajevanju AI s človeškimi vrednotami.

Tako bi ključno in še ne dobro poznano sredstvo za iskanje odgovorne umetne inteligence, zaupanja vredne umetne inteligence, odgovorne umetne inteligence, usklajevanja umetne inteligence itd. vključevalo uporabo dvojnih preverjevalcev umetne inteligence, kot sta dvopreverjevalnik etike umetne inteligence in Pravni dvojni preverjevalnik AI, ki bi neumorno deloval kot dvojni pregled AI, v katerega so vdelani.

V tej razpravi bi rad šel še nekoliko podrobneje o naravi in ​​konstruktih pravnih dvojnih preverjanj AI, ki bi lahko bili vdelani v AI. Da bi to naredili, bi bilo morda koristno, če z vami delimo nekaj dodatnega ozadja o splošni temi AI in pravo.

Za nesmiselno preučitev, kako se umetna inteligenca in pravo prepletata drug z drugim, glejte mojo razpravo na povezava tukaj. V mojem pronicljivem pogledu na AI in pravo spajanja, ponujam to preprosto zasnovo dveh glavnih načinov medsebojnega povezovanja umetne inteligence in prava:

  • (1) Zakon, ki se uporablja za AI: Oblikovanje, uzakonitev in uveljavljanje zakonov, ki se uporabljajo za urejanje ali upravljanje umetne inteligence v naši družbi
  • (2) AI-applied-to-Law: Tehnologija umetne inteligence, zasnovana in uporabljena v zakonodaji, vključno s pravnim sklepanjem na osnovi umetne inteligence (AILR), vstavljeno v visokotehnološke aplikacije LegalTech za avtonomno ali delno samostojno opravljanje odvetniških nalog

Prvo našteto stališče vključuje premislek, kako bodo obstoječi in novi zakoni urejali AI. Drugi navedeni vidik je povezan z uporabo umetne inteligence v pravu.

Ta zadnja kategorija običajno vključuje uporabo pravnega sklepanja na podlagi umetne inteligence (AILR) v različnih spletnih orodjih, ki jih uporabljajo odvetniki. Umetna inteligenca je lahko na primer del paketa za upravljanje življenjskega cikla pogodbe (CLM), ki odvetnikom pomaga pri prepoznavanju pogodbenega jezika, ki bo uporaben za pripravo novih pogodb, ali lahko odkrije pogodbe, ki imajo pravno nezahteven jezik, ki omogoča nezgode ali pravne vrzeli (za moj pogled na tako imenovane "vonje po zakonu", ki jih lahko zazna AI, glejte povezava tukaj).

Umetno inteligenco bomo neizogibno uporabili za zakonodajo, ki bo na voljo širši javnosti in za katero ni potreben odvetnik, ki je v teku. Trenutno je zaradi različnih omejitev, vključno z UPL (Unauthorized Practical of Law), dajanje na voljo aplikacij za pravno svetovanje, ki temeljijo na umetni inteligenci, kočljiva in sporna zadeva, glejte mojo razpravo na povezava tukaj.

Ta uvod o umetni inteligenci in zakonu sem predstavil, da bi poudaril, da bi bila druga instrumentalna uporaba umetne inteligence, ki bi se uporabljala za pravo, ustvarjanje pravnih dvojnih preverjanj umetne inteligence.

Da, enaka tehnološka zmogljivost, ki je vključena v uporabo umetne inteligence v zakonodaji, lahko služi kot dvojna naloga z uporabo umetne inteligence kot vgrajenega ali vsajenega pravnega dvojnega preverjanja umetne inteligence. AI pravni dvojni preglednik je komponenta, ki mora biti seznanjena s pravnimi vidiki. Ko preostali del aplikacije AI izvaja različna dejanja, pravni dvojni preverjevalec AI preveri, ali aplikacija AI to počne zakonito in v okviru zakonskih omejitev.

Ni nujno, da komponenta AI Legal dvojnega preverjanja pokriva celoten nabor vsega, kar je treba vedeti o pravu. Odvisno od narave aplikacije z umetno inteligenco glede namena in dejanj umetne inteligence na splošno je pravni dvojni preglednik z umetno inteligenco lahko veliko ožji v smislu pravnega strokovnega znanja, ki ga vsebuje.

Identificiral sem koristen okvir za predstavitev, kako AI v pravni domeni obsega vrsto avtonomnih zmogljivosti, znanih kot ravni avtonomije (LoA). Za pregled si oglejte mojo Forbes objava v kolumni z dne 21. novembra 2022, »Nesmiseln celovit in prepričljiv primer, zakaj morajo odvetniki vedeti o AI in pravu« na povezava tukaj, za podroben tehnični prikaz pa glejte moj poglobljeni raziskovalni članek v MIT Computational Law Journal z dne 7. decembra 2021, glej povezava tukaj.

Okvir pojasnjuje pet ravni umetne inteligence, ki se uporablja v pravnih prizadevanjih:

  • Raven 0: Brez avtomatizacije za pravno delo, ki temelji na umetni inteligenci
  • Raven 1: Enostavna avtomatizacija pomoči za pravna dela, ki temeljijo na umetni inteligenci
  • 2. stopnja: avtomatizacija napredne pomoči za pravno delo, ki temelji na umetni inteligenci
  • Raven 3: Polavtonomna avtomatizacija za pravno delo, ki temelji na AI
  • Raven 4: Avtonomna domena za pravno delo, ki temelji na umetni inteligenci
  • Raven 5: Popolnoma avtonomen za pravno delo, ki temelji na AI

Tukaj jih bom na kratko opisal.

Raven 0 velja za raven brez avtomatizacije. Pravno sklepanje in pravne naloge se izvajajo z ročnimi metodami in se v glavnem pojavljajo s papirnatimi pristopi.

Raven 1 je sestavljena iz preproste avtomatizacije pomoči za pravno utemeljitev z umetno inteligenco. Primeri te kategorije bi vključevali uporabo vsakodnevne računalniške obdelave besedil, uporabo vsakodnevnih računalniških preglednic, dostop do spletnih pravnih dokumentov, ki so shranjeni in pridobljeni elektronsko, itd.

2. raven je sestavljena iz napredne avtomatizacije pomoči za pravno sklepanje z umetno inteligenco. Primeri te kategorije bi vključevali uporabo rudimentarne obdelave naravnega jezika (NLP) v slogu poizvedbe, poenostavljene elemente strojnega učenja (ML), orodja za statistično analizo za napovedi pravnih primerov itd.

Raven 3 je sestavljena iz polavtonomne avtomatizacije za pravno sklepanje z umetno inteligenco. Primeri te kategorije bi vključevali uporabo naprednih na znanju temelječih sistemov (KBS) za pravno sklepanje, uporabo strojnega učenja in globokega učenja (ML/DL) za pravno sklepanje, napredni NLP itd.

Raven 4 sestavljajo domensko avtonomni računalniško podprti sistemi za pravno sklepanje z umetno inteligenco. Ta raven ponovno uporablja konceptualni koncept domen operativnega oblikovanja (ODD), ki se uporablja za samovozeče avtomobile, vendar kot se uporablja za pravno področje. Pravna področja so lahko razvrščena po funkcionalnih področjih, kot so družinsko pravo, nepremičninsko pravo, stečajno pravo, okoljsko pravo, davčno pravo itd.

Stopnja 5 je sestavljena iz popolnoma avtonomnih računalniško podprtih sistemov za pravno sklepanje z umetno inteligenco. V nekem smislu je stopnja 5 nadmnožica ravni 4 v smislu zajema vseh možnih pravnih področij. Zavedajte se, da je to precej zahteven nalog.

Te ravni avtonomije si lahko predstavljate enako kot sorodne uporabe, ko razpravljate o samovozečih avtomobilih in avtonomnih vozilih (tudi na podlagi uradnega standarda SAE, glejte mojo pokritost na povezava tukaj). Samovozečih avtomobilov SAE stopnje 5 še nimamo. Približujemo se samovozečim avtomobilom stopnje 4 SAE. Večina običajnih avtomobilov je na ravni SAE 2, medtem ko se nekateri novejši avtomobili premikajo na stopnjo SAE 3.

Na pravnem področju še nimamo stopnje 5 AILR. Dotikamo se neke stopnje 4, čeprav v zelo ozkih ODD. Raven 3 začenja ugledati luč sveta, medtem ko je oporišče AILR danes predvsem na ravni 2.

Nedavni raziskovalni članek o uporabi umetne inteligence v zakonodaji je postavil tipizacijo, znano kot Zakon obvešča zakonik. Raziskovalec pravi: »Eden od primarnih ciljev Zakon obvešča zakonik Namen je naučiti AI, da sledi duhu zakona« (John J. Nay, »Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans«, Northwestern Journal of Technology and Intellectual Property, zvezek 20, v pripravi). Obstaja nekaj bistvenih premislekov, da Zakon obvešča zakonik mantra pripelje do vas in popeljal vas bom skozi več teh ključnih zapovedi.

Preden se potopim v to temo, bi rad najprej postavil nekaj bistvenih temeljev o umetni inteligenci in zlasti o etiki umetne inteligence in pravu o umetni inteligenci, s čimer bi zagotovil, da bo razprava kontekstualno smiselna.

Vse večja ozaveščenost o etični umetni inteligenci in tudi pravu o umetni inteligenci

Nedavno obdobje umetne inteligence je bilo sprva obravnavano kot AI za dobro, kar pomeni, da bi lahko uporabili AI za izboljšanje človeštva. Za petami AI za dobro prišlo spoznanje, da smo potopljeni tudi v AI za slabo. To vključuje umetno inteligenco, ki je bila zasnovana ali samospremenjena tako, da je diskriminatorna in omogoča računalniške izbire, ki povzročajo neupravičene pristranskosti. Včasih je umetna inteligenca zgrajena tako, medtem ko v drugih primerih zavije na to neugodno ozemlje.

Želim se popolnoma prepričati, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteči AI, bi lahko šla ta razprava v radikalno drugačno smer. Čuteča umetna inteligenca bi bila domnevno človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli superinteligentno umetno inteligenco, je možno, da bi bila takšna umetna inteligenca na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne umetne inteligence kot možnosti glejte pokritost tukaj).

Močno predlagam, da stvari ostanemo prizemljene in razmislimo o današnji računalniški nečuteči umetni inteligenci.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

Bodite zelo previdni pri antropomorfiziranju današnje umetne inteligence.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivnostna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to težje, kot se morda zdi. Obstaja velika verjetnost, da bodo tudi z razmeroma obsežnim testiranjem pristranskosti še vedno vgrajene v modele za ujemanje vzorcev ML/DL.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vse to ima zelo pomembne posledice za etiko umetne inteligence in ponuja priročno okno v pridobljene izkušnje (še preden se zgodijo vse lekcije), ko gre za poskus zakonodaje umetne inteligence.

Poleg uporabe etičnih predpisov umetne inteligence na splošno obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Vnaprej opozarjajo, da bomo, če bomo sprejeli nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z zajezitvijo napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti.

V prejšnjih stolpcih sem obravnaval različna nacionalna in mednarodna prizadevanja za oblikovanje in uveljavitev zakonov, ki urejajo umetno inteligenco, glejte povezava tukaj, na primer. Pokril sem tudi različna načela in smernice etike umetne inteligence, ki so jih opredelili in sprejeli različni narodi, vključno na primer s prizadevanji Združenih narodov, kot je Unescov sklop etike umetne inteligence, ki ga je sprejelo skoraj 200 držav, glej povezava tukaj.

Tukaj je koristen temeljni seznam etičnih meril ali značilnosti umetne inteligence v zvezi s sistemi umetne inteligence, ki sem jih že natančno raziskal:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Ta načela etike umetne inteligence naj bi resno uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo prizadevanja za razvoj umetne inteligence, in celo tistimi, ki na koncu izvajajo in vzdržujejo sisteme umetne inteligence.

Vse zainteresirane strani v celotnem življenjskem ciklu razvoja in uporabe umetne inteligence so obravnavane v okviru upoštevanja že vzpostavljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da morajo »samo koderji« ali tisti, ki programirajo AI, upoštevati pojme etike AI. Kot je bilo že poudarjeno v tem dokumentu, je potrebna vas, da zasnuje in uporabi umetno inteligenco, za kar mora biti cela vas seznanjena in spoštovati predpise etike umetne inteligence.

Pred kratkim sem pregledal tudi Listina pravic AI kar je uradni naslov uradnega dokumenta ameriške vlade z naslovom »Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People«, ki je rezultat enoletnega prizadevanja Urada za znanost in tehnološko politiko (OSTP). ). OSTP je zvezni subjekt, ki služi za svetovanje ameriškemu predsedniku in izvršnemu uradu ZDA o različnih tehnoloških, znanstvenih in inženirskih vidikih nacionalnega pomena. V tem smislu lahko rečete, da je ta listina pravic AI dokument, ki ga je odobrila in potrdila obstoječa Bela hiša ZDA.

V listini o pravicah umetne inteligence je pet ključnih kategorij:

  • Varni in učinkoviti sistemi
  • Algoritemska diskriminacijska zaščita
  • Zasebnost podatkov
  • Obvestilo in pojasnilo
  • Človeške alternative, premislek in rezerva

Skrbno sem pregledal te predpise, vidite povezava tukaj.

Zdaj, ko sem postavil uporabne temelje za te sorodne teme o etiki umetne inteligence in zakonodaji o umetni inteligenci, smo pripravljeni, da skočimo na omamno temo pravnih dvojnih preverjanj umetne inteligence in področja Zakon obvešča zakonik.

Pravna dvojna preverjanja AI, vdelana v AI za usklajevanje človeških vrednot

Včasih se sklicujem na AI pravne dvojne kontrole prek akronima AI-LDC. To je vizualno nekoliko moteče za tiste, ki niso seznanjeni s kratico. Zato te kratice v tej razpravi ne bom uporabljal, ampak sem vam jo želel omeniti kot opozorilo.

Da razkrijemo nekatere zapletenosti pravnih dvopreverjevalcev AI, se posvetimo tem glavnim točkam:

  • Uporaba pravnih dvojnih preverjanj AI kot mehanizma za usklajevanje človeških vrednot AI
  • Obsežnejši AI bo ustrezno zahteval bolj robustne pravne dvojne pregledovalce AI
  • Pravni nadzorniki umetne inteligence sprejemajo zakonodajo in zlasti ne sprejemajo zakonodaje (verjetno)
  • Občutljivo ravnotežje med AI Pravno utelešenje zakona kot pravil in standardi
  • Zahtevati dokaze o neumnosti, ko gre za spoštovanje zakona z umetno inteligenco

Zaradi prostorske omejitve bom za zdaj obravnaval samo teh pet točk, vendar bodite pozorni na nadaljnjo pokritost v moji kolumni, ki bo pokrivala dodatna in enako omembe vredna razmišljanja o teh hitro razvijajočih se in napredujočih zadevah.

Takoj se pripnite z varnostnim pasom in se pripravite na poživljajočo pot.

  • Uporaba pravnih dvojnih preverjanj AI kot mehanizma za usklajevanje človeških vrednot AI

Obstaja veliko načinov, kako poskušati doseči harmonično uskladitev med AI in človeškimi vrednotami.

Kot smo že omenili, lahko izdelamo in razglasimo etične predpise umetne inteligence ter si prizadevamo, da razvijalci umetne inteligence in tisti, ki razvijajo in upravljajo umetno inteligenco, spoštujejo ta temeljna načela. Na žalost samo to ne bo pomagalo. Imate nekaj oblikovalcev, ki neizogibno ne bodo razumeli sporočila. Imate nekaj premišljevalcev, ki se bodo šopirili z etično umetno inteligenco in poskušali zaobiti nekoliko ohlapno predpisana načela. In tako naprej.

Uporaba pristopov »mehkega prava«, ki vključuje etiko umetne inteligence, mora biti skoraj neizogibno povezana z možnostmi »trdega prava«, kot je sprejemanje zakonov in predpisov, ki bodo poslali močan signal vsem, ki ustvarjajo ali uporabljajo umetno inteligenco. Dolga roka zakona vas lahko ujame, če ne boste preudarno izkoriščali umetne inteligence. Zvok žvenketanja vrat zapora bi lahko pritegnil pozornost.

Velik problem pa je, da so včasih vrata hleva konje že spustila ven. Umetna inteligenca, ki je izpostavljena, bo potencialno proizvajala najrazličnejša nezakonita dejanja in s tem nadaljevala, dokler je ne le ujamejo, ampak tudi ko se končno okrepijo nekateri organi pregona, da bi preprečili tok nezakonitih dejanj. Vse to lahko traja. Medtem pa so ljudje na tak ali drugačen način oškodovani.

V tem pohodu prihaja AI pravni dvojnik za preverjanje.

S tem, ko se nahaja v aplikaciji AI, pravni dvojni pregledovalec AI lahko takoj zazna, ko se zdi, da je AI v nasprotju z zakonom. Pravni dvojni preverjalnik AI bi lahko ustavil AI. Ali pa lahko komponenta ljudi opozori na opažene nezakonite dejavnosti, in to pravočasno, kar bi lahko nadzornike spodbudilo k nujnim korektivnim ukrepom. Obstaja tudi obravnavano formalizirano beleženje, ki bi ga lahko ustvarila komponenta, kar bi zagotovilo oprijemljiv videz revizijske sledi za namene kodifikacije škodljivih dejanj umetne inteligence.

Naši zakoni naj bi bili oblika konglomerata več akterjev, tako da so zakoni neizogibno mešanica tega, kar je družba skušala vzpostaviti kot ravnovesje med verjetnimi nasprotujočimi si pogledi na primerno in nepravilno družbeno vedenje. Pravno dvojno preverjanje AI, ki temelji na naših zakonih, torej uteleša to mešanico.

Predvsem je to več kot le programiranje seznama dokončnih pravnih pravil. Zakoni so ponavadi bolj prilagodljivi in ​​težijo k splošnim standardom, namesto da bi določali najmanjša mikroskopska pravila. Kompleksnosti je na pretek.

Če se vrnemo k prej omenjenemu raziskovalnemu dokumentu, si oglejmo, kako je na te premisleke mogoče gledati tudi glede prizadevanja za usklajevanje z umetno inteligenco: »Pravo, uporabna filozofija usklajevanja več agentov, edinstveno izpolnjuje ta merila. Usklajevanje je problem, ker ne moremo predhodno navedite pravila, ki v celoti in dokazljivo usmerjajo dobro vedenje AI. Podobno stranke pravne pogodbe ne morejo predvideti vseh nepredvidenih okoliščin svojega razmerja, zakonodajalci pa ne morejo predvideti posebnih okoliščin, v katerih se bodo uporabljali njihovi zakoni. Zato je velik del prava konstelacija standardov« (ibid).

Utelešenje prava v AI Pravno dvojno preverjanje je veliko bolj zahtevno, kot bi morda sprva domnevali.

Z napredkom umetne inteligence bomo morali ta napredek ustrezno izkoristiti. Izkazalo se je, da kar je dobro za gos, je dobro tudi za gusa. Tisti med nami, ki napredujemo na področju umetne inteligence v smislu zakonodaje, širimo okvire umetne inteligence in nedvomno kujemo nove napredke, ki lahko na koncu prispevajo k celotnemu napredku umetne inteligence.

  • Obsežnejši AI bo ustrezno zahteval bolj robustne pravne dvojne pregledovalce AI

Na to temo se sooča igra mačke in miši.

Ko bo umetna inteligenca še bolj napredovala, bo katera koli pravna komponenta dvojnega preverjanja umetne inteligence vedno težje obvladovala zadeve. Na primer, aplikacija umetne inteligence, ki je pod drobnogledom, ima morda na novo zasnovane super zahrbtne načine za skrivanje nezakonitih dejanj, ki jih izvaja umetna inteligenca. Tudi če umetna inteligenca ne ubere nepoštene poti, bi bila splošna zapletenost umetne inteligence sama po sebi lahko zastrašujoča ovira za željo po dvojni oceni pravne osebe za umetno inteligenco.

Evo, kako to postane še posebej pomembno.

Recimo, da razvijalec umetne inteligence ali kakšno podjetje, ki uporablja umetno inteligenco, razglasi, da obstaja pravni dvojni preglednik umetne inteligence, ki je vdelan v aplikacijo, ki temelji na umetni inteligenci. Voila, zdi se, da so si zdaj umili roke pred morebitnimi nadaljnjimi skrbmi. AI Legal Double Checker bo poskrbel za vse.

Ne tako.

Pravno dvojno preverjanje AI morda ne zadostuje za naravo zadevne aplikacije AI. Obstaja tudi možnost, da pravno dvojno preverjanje AI postane zastarelo, morda ni posodobljeno z najnovejšimi zakoni, ki se nanašajo na aplikacijo AI. Predvideti je mogoče vrsto razlogov, zakaj zgolj prisotnost pravnega dvojnega preverjalnika AI ne bo prava rešitev.

Upoštevajte te vpoglede iz prej citirane raziskave: »Ko napreduje najsodobnejša AI, lahko postavljamo iterativno višje meje dokazanih zmožnosti pravnega razumevanja. Če razvijalec trdi, da ima njegov sistem napredne zmogljivosti za naloge, bi moral dokazati ustrezno napredno pravno razumevanje in pravne zmožnosti sklepanja umetne inteligence, ki praktično nimajo nobene zgornje meje težav, ko upoštevajo množico zakonov in predpisov skozi čas, precedens in jurisdikcijo ” (ibid).

  • Pravni nadzorniki umetne inteligence sprejemajo zakonodajo in zlasti ne sprejemajo zakonodaje (verjetno)

Prepričan sem, da so nekateri od vas zgroženi nad idejo, da bi imeli te pravne dvojne pregledovalnike AI.

Eden od pogosto izraženih skrbi je, da bomo očitno dovolili AI, da namesto nas odloča o naših zakonih. Dobri bog, si morda mislite, nekaj avtomatizacije bo prehitelo človeštvo. Ti prekleti vgrajeni pravni dvojni nadzorniki z umetno inteligenco bodo postali privzeti kralji naših zakonov. Karkoli bodo morda storili, bo to, kar se zdi, da je zakon.

Ljudem bo vladala umetna inteligenca.

In ti pravni dvojni pregledovalci AI so spolzka pot, ki nas pripelje do cilja.

Protiargument je, da je takšno govorjenje del teorij zarote. Divje postulirate in se spravljate v napetost. Resničnost je taka, da ti pravni dvopreverjevalci umetne inteligence niso čuteči, da ne bodo prevzeli planeta in da je oglašanje o njihovem eksistencialnem tveganju očitno nesmiselno in neizmerno precenjeno.

Skratka, pri čemer ostanemo mirni in razumni, se moramo zavedati, da pravni dvopreverjevalci AI služijo temu, da ustrezno odražajo zakonodajo in ne po zasnovi in ​​niti po naključju ne gredo še dlje, da bi nekako privzeli cenjeno področje ustvarjanja pravo. Če pustimo ob strani ekstrapolacije občutkov, se zagotovo lahko strinjamo, da obstaja resnična in pereča skrb, da bi pravni dvopreverjevalnik AI lahko na koncu napačno predstavil pravo naravo danega zakona.

Po drugi strani pa bi lahko trdili, da se torej ta določeni »napačno predstavljeni« zakon v bistvu pripravlja na novo, saj ne označuje več ustrezno tistega, kar je bil namen dejanskega zakona. Verjamem, da odkrito vidite, kako je to subtilen, a zgovoren premislek. Kadar koli bi lahko pravni dvojni preverjevalnik AI na virtualni osnovi ustvaril ali, če rečemo, »haluciniral« nove zakone preprosto na podlagi tega, kako komponenta AI razlaga zakon, kot je prvotno naveden ali utelešen v AI (za moje pokritje AI t.i halucinacije, Glej povezava tukaj).

Pri tem je treba strogo paziti.

V zvezi s to temo prej omenjena raziskovalna študija ponuja to vzporedno misel v smislu prizadevanja za preprečitev prestopa te svete meje: »Ne želimo si, da bi imela AI legitimnost za ustvarjanje zakonodaje, ustvarjanje pravnega precedensa ali uveljavljanje zakonodaje. Pravzaprav bi to spodkopalo naš pristop (in morali bi vložiti veliko truda, da bi to preprečili). Namesto tega je najambicioznejši cilj zakonika o informiranju zakona računalniško kodirati in vgraditi posplošljivost obstoječih pravnih konceptov in standardov v potrjeno delovanje umetne inteligence« (ibid).

  • Občutljivo ravnotežje med AI Pravno utelešenje zakona kot pravil in standardi

Zakoni so neurejeni.

Za skoraj vsak zakon v knjigah verjetno obstaja množica razlag o tem, kaj zakon določa v dejanski praksi. V jeziku področja umetne inteligence pravimo, da so zakoni semantično dvoumni. To je tisto, zaradi česar je razvoj umetne inteligence pri uporabi zakona tako razburljiv in hkrati moteč izziv. V nasprotju z natančnim drobljenjem številk, ki ga lahko vidite pri, recimo, finančno usmerjenih aplikacijah AI, zahteva želja po utelešenju naših zakonov v AI soočanje s cunamijem semantičnih dvoumnosti.

V knjigi moje fundacije o osnovah pravnega razmišljanja AI (AILR) razpravljam o tem, kako nas predhodni poskusi zgolj kodifikacije zakonov v nabor omejenih pravil niso pripeljali tako daleč, kot bi si želeli na pravnem področju (glej povezava tukaj). Današnji AILR mora zajemati integracijo med uporabo pravil in tem, kar bi lahko imenovali krovni standardi, ki jih zakon predstavlja.

To pomembno ravnotežje je mogoče izraziti na naslednji način: »V praksi večina pravnih določb pristane nekje na spektru med čistim pravilom in čistim standardom, pravna teorija pa lahko pomaga oceniti pravo kombinacijo »pravilnosti« in »standardnosti«. pri določanju ciljev sistemov AI« (ibid).

  • Zahtevati dokaze o neumnosti, ko gre za spoštovanje zakona z umetno inteligenco

Želeti nekaj je drugače kot nekaj imeti.

Ta kanček modrosti se pojavi, ko predlagamo, da čeprav bi morda želeli imeti pravne dvojne preverjevalnike AI, moramo nujno zagotoviti, da delujejo in delujejo pravilno. Upoštevajte, da to predstavlja še eno težko in naporno oviro. Prej sem obravnaval najnovejši napredek in izzive pri preverjanju in potrjevanju AI, glej povezava tukaj.

Kot je navedeno v raziskovalnem dokumentu: »Da bi odpravili vrzel, mora stran, ki uvaja, pokazati, da sistem razume človeške cilje, politike in pravne standarde, preden se modeli umetne inteligence uvedejo v vedno bolj agentskih zmogljivostih, npr. popolnoma avtonomna vozila na glavnih cestah. Postopek validacije bi lahko ponazoril AI-jevo 'razumevanje' 'pomena' pravnih pojmov« (ibid).

zaključek

Pozivam vas, da razmislite o tem, da bi se mi pridružili na tem plemenitem prizadevanju za izdelavo in uporabo AI Legal dvojnih preverjalcev. Potrebujemo več pozornosti in sredstev, namenjenih temu dobremu prizadevanju.

To prav tako zagotavlja dvojno dolžnost, kot je bilo že omenjeno, v smeri doseganja pravnega sklepanja z umetno inteligenco (AILR), ki se lahko uporablja za pomoč odvetnikom in ga lahko neposredno uporablja splošna javnost. Nekateri dejansko odločno trdijo, da bo edini izvedljiv način za dosego popolnejšega občutka dostopa do pravnega varstva (A2J) izdelava umetne inteligence, ki uteleša pravne sposobnosti in je dostopna vsem.

Ena hitra zadnja točka za zdaj.

V dosedanji razpravi je bilo poudarjeno, da bi bil pravni dvojni preverjalnik AI vdelan ali vsajen v AI. To je dejansko glavni fokus tistih, ki raziskujejo in se lotevajo tega nastajajočega področja.

Tukaj je vprašanje, o katerem je vredno razmisliti.

Nadenite si kapo za razmišljanje.

Zakaj ne bi v vsej programski opremi uporabili pravnih dvojnih preverjanj AI?

Bistvo je, da bi morda morali razširiti svoje stališče, namesto da izključno uporabljamo pravne dvojne pregledovalnike AI v AI. Vse vrste programske opreme lahko zakonito zaidejo. Umetna inteligenca je resda dobila levji delež pozornosti zaradi načinov, na katere se umetna inteligenca običajno uporablja, kot je upodabljanje težkih odločitev, ki vplivajo na ljudi v njihovem vsakdanjem življenju. Lahko pa trdite, da obstaja veliko sistemov brez umetne inteligence, ki delajo enako.

V bistvu nobeni programski opremi ne bi smeli dovoliti, da bi se izognila zakonu ali ga preprečila.

Spomnite se tudi, da sem prej omenil dve kategoriji združevanja umetne inteligence in prava. Tu smo se osredotočili na uporabo umetne inteligence v zvezi z zakonodajo. Na drugi strani kovanca je uporaba zakona za AI. Recimo, da sprejmemo zakone, ki zahtevajo uporabo pravnih dvopreverjevalcev AI.

To bi lahko bilo sprva omejeno na sisteme umetne inteligence, zlasti tiste, ki so ocenjeni kot zelo tvegani. Postopoma bi lahko isto zakonsko zahtevo za dvojno preverjanje AI razširili tudi na programsko opremo, ki ni AI. Spet brez brezplačnih voženj.

Medtem ko se vi ukvarjate s tem zgornjim premislekom, bom jaz stvari začinil kot zaključno dražljivko. Če bomo poskušali zahtevati dvojne preverjevalnike AI Legal, bi lahko enako storili tudi glede dvojnih preverjevalcev AI Ethics. Uporaba pravnega dvojnega preverjanja AI je le polovica zgodbe in ne moremo zanemariti ali pozabiti tudi na pomisleke glede etike AI.

Ta živahni diskurz bom končal z enim svojih najljubših citatov. Po modrih besedah ​​Earla Warrena, slavnega pravnika, ki je služil kot vrhovni sodnik Združenih držav: "V civiliziranem življenju pravo plava v morju etike."

Morda bi bilo najbolje, da te nadobudne in brbotajoče AI pravne dvopreverjevalnike in AI Ethics dvojne preverjevalnike odločno vključimo v vneto uporabo, če želimo obdržati glavo nad potencialno grozečim težkim morjem pred kislim umetno inteligenco in mračnimi sistemi brez umetne inteligence, ki ogrožajo našo varnost .

Lahko so rešilni jopič človeštva.

Vir: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- in-ai-zakon/