Etika umetne inteligence in zakon o umetni inteligenci postavljajo težka vprašanja o tej novi zavezi izdelovalcev plesočih robotov, ki pravijo, da bodo preprečili uporabo orožja z umetno inteligenco

Morda ste prejšnji teden videli v novicah ali opazili na družabnih omrežjih napovedano obljubo nekaterih izdelovalcev robotov o njihovih zapovedanih ciljih, da se izognejo oboroževanju robotov za splošno uporabo z umetno inteligenco. Čez trenutek vas bom popeljal skozi podrobnosti, zato ne skrbite, če zadeve še niste izvedeli.

Reakcija na to razglasitev je bila hitra in je bila, morda kot običajno v naši polarizirani družbi, tako pohvalna kot na trenutke posmehljivo kritična ali naravnost grdo skeptična.

Je zgodba o dveh svetovih.

V enem svetu nekateri pravijo, da je to točno tisto, kar potrebujemo odgovorna Razvijalci robotov AI, ki jih je treba prijaviti.

Hvala bogu, da ste na pravi strani težave, ki bo postopoma postajala vse bolj vidna in bolj zaskrbljujoča. Ti ljubki plešoči roboti so zaskrbljujoči, ker jih je precej enostavno preusmeriti, da nosijo orožje in so uporabljeni na najslabše načine (to lahko preverite sami, če obiščete družbena omrežja in obstaja veliko videoposnetkov, ki prikazujejo plešoče robote, oborožene z mitraljezi in druga oborožitev).

Druga plat tega kovanca pravi, da tako imenovana obljuba ni nič drugega kot marketinški trik ali trik za odnose z javnostmi (za nameček, je kdo seznanjen z razliko med obljubo in donacijo?). Kakorkoli že, dvomljivci opominjajo, da gre za signaliziranje nebrzdane vrline v kontekstu plešočih robotov. Vidite, objokovanje dejstva, da je robote za splošne namene mogoče opremiti z orožjem, je vsekakor vredno in resno željnega razmišljanja, čeprav je zgolj trditev, da proizvajalec tega ne bo storil, verjetno prazna obljuba, vztrajajo nekateri.

Skratka, celotna zadeva prinaša precej zajeten nabor etike umetne inteligence in zakona o umetni inteligenci. Natančno bomo razkrili temo in videli, kako je to dvojni udarec etičnega in pravnega AI močvirja. Za moje stalno in obsežno pokrivanje etike in prava umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

V tej razpravi se bom skliceval tudi na svoje prejšnje analize nevarnosti uporabe orožja z umetno inteligenco, kot je moja poglobljena ocena na povezava tukaj. Morda bi si želeli ogledati ta diskurz za dodatne podrobnosti v zakulisju.

Odprto pismo, ki odpre pločevinko s črvi

Začnimo to analizo s skrbnim postopnim raziskovanjem Odprtega pisma, ki ga je nedavno objavilo šest razmeroma znanih izdelovalcev naprednih robotov, in sicer Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics in Unitree. Na splošno predvidevam, da ste videli predvsem robote Boston Dynamics, kot so tisti, ki poskakujejo po vseh štirih. Videti so, kot da bi bili podobni psom, in uživali smo, ko jih vidimo, da se sprehajajo naokoli.

Kot sem že večkrat opozarjal, je uporaba takšnih "plešočih" robotov kot sredstva za prepričevanje širše javnosti, da so ti roboti ljubki in prikupni, na žalost zavajajoča in vodi v številne pasti njihovega antropomorfiziranja. O teh utrjenih kosih kovine in plastike začnemo razmišljati, kot da so enakovredni ljubkemu zvestemu psu. Naša pripravljenost, da sprejmemo te robote, temelji na lažnem občutku varnosti in zagotovila. Seveda morate zaslužiti denar in možnosti za to se povečajo s paradiranjem okrog plešočih robotov, vendar to žal izpusti ali na videz prikrije resnično dejstvo, da so ti roboti roboti in da je lahko umetna inteligenca, ki jih nadzoruje, zasnovana napačno ali se zmoti.

Razmislite o teh razvejanosti umetne inteligence (izvleček iz mojega članka o oboroževanju z umetno inteligenco, ki ga najdete na povezava tukaj):

  • AI lahko naleti na napako, zaradi katere zaide
  • AI je lahko preobremenjen in se ne odziva
  • AI lahko vsebuje napake razvijalca, ki povzročajo nepravilno vedenje
  • AI se lahko pokvari z vsajenim virusom zlobneža
  • AI lahko prevzamejo kibernetski hekerji v realnem času
  • Umetna inteligenca se lahko šteje za nepredvidljivo zaradi kompleksnosti
  • AI lahko računsko sprejme "napačno" odločitev (relativno)
  • Itd

To so točke v zvezi z umetno inteligenco, ki je resnično zasnovana na začetku, da naredi pravo stvar.

Poleg teh premislekov morate vključiti sisteme umetne inteligence, ki so bili od samega začetka oblikovani za slabe stvari. Lahko imate AI, ki je narejen za koristne namene, pogosto imenovan AI za dobro. Lahko imate tudi AI, ki je namerno narejen za slabe namene, znan kot AI za slabo. Poleg tega lahko imate AI za dobro ki je pokvarjen ali spremenjen v nastanek AI za slabo.

Mimogrede, nič od tega nima nobene zveze s tem, da umetna inteligenca postane čuteča, kar omenjam, ker nekateri kar naprej vzklikajo, da je današnja umetna inteligenca ali čuteča ali na meji čutečega. Ne tako. V svoji analizi razbijam te mite povezava tukaj.

Poskrbimo torej, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteči AI, bi lahko šla ta razprava v radikalno drugačno smer. Čuteča umetna inteligenca bi bila domnevno človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli superinteligentno umetno inteligenco, je možno, da bi bila takšna umetna inteligenca na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne umetne inteligence kot možnosti glejte pokritost tukaj).

Močno predlagam, da stvari ostanemo prizemljene in razmislimo o današnji računalniški nečuteči umetni inteligenci.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

Bodite zelo previdni pri antropomorfiziranju današnje umetne inteligence.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivnostna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to težje, kot se morda zdi. Obstaja velika verjetnost, da bodo tudi z razmeroma obsežnim testiranjem pristranskosti še vedno vgrajene v modele za ujemanje vzorcev ML/DL.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vse to ima zelo pomembne posledice za etiko umetne inteligence in ponuja priročno okno v pridobljene izkušnje (še preden se zgodijo vse lekcije), ko gre za poskus zakonodaje umetne inteligence.

Poleg uporabe etičnih predpisov umetne inteligence na splošno obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Vnaprej opozarjajo, da bomo, če bomo sprejeli nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z zajezitvijo napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti.

V prejšnjih stolpcih sem obravnaval različna nacionalna in mednarodna prizadevanja za oblikovanje in uveljavitev zakonov, ki urejajo umetno inteligenco, glejte povezava tukaj, na primer. Pokril sem tudi različna načela in smernice etike umetne inteligence, ki so jih opredelili in sprejeli različni narodi, vključno na primer s prizadevanji Združenih narodov, kot je Unescov sklop etike umetne inteligence, ki ga je sprejelo skoraj 200 držav, glej povezava tukaj.

Tukaj je koristen temeljni seznam etičnih meril ali značilnosti umetne inteligence v zvezi s sistemi umetne inteligence, ki sem jih že natančno raziskal:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Ta načela etike umetne inteligence naj bi resno uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo prizadevanja za razvoj umetne inteligence, in celo tistimi, ki na koncu izvajajo in vzdržujejo sisteme umetne inteligence.

Vse zainteresirane strani v celotnem življenjskem ciklu razvoja in uporabe umetne inteligence so obravnavane v okviru upoštevanja že vzpostavljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da morajo »samo koderji« ali tisti, ki programirajo AI, upoštevati pojme etike AI. Kot je bilo že poudarjeno v tem dokumentu, je potrebna vas, da zasnuje in uporabi umetno inteligenco, za kar mora biti cela vas seznanjena in spoštovati predpise etike umetne inteligence.

Zdaj, ko sem postavil koristne temelje za vstop v Odprto pismo, smo pripravljeni na potop.

Uradni naslov teme Odprtega pisma je naslednji:

  • "Odprto pismo industriji robotike in našim skupnostim, Roboti za splošno rabo ne bi smeli biti oboroženi” (kot je objavljeno na spletu).

Zaenkrat tako dobro.

Naslov se skoraj zdi kot sladoled in jabolčna pita. Kako bi lahko kdo oporekal temu kot nekdanjemu pozivu, da bi se izognili oboroževanju robotov AI?

Preberite, da vidite.

Najprej, kot krma za razmislek, je tukaj uradni uvodni odstavek odprtega pisma:

  • »Smo nekaj vodilnih svetovnih podjetij, ki se posvečajo uvajanju novih generacij napredne mobilne robotike v družbo. Te nove generacije robotov so bolj dostopne, enostavnejše za upravljanje, bolj avtonomne, cenovno dostopne in prilagodljive kot prejšnje generacije ter zmožne navigacije na lokacije, ki so bile prej nedostopne avtomatiziranim ali daljinsko vodenim tehnologijam. Verjamemo, da bodo napredni mobilni roboti prinesli veliko korist družbi kot sodelavci v industriji in spremljevalci v naših domovih« (kot je objavljeno na spletu).

Sončna stran prihoda teh vrst robotov je, da lahko pričakujemo, da se bodo pojavile številne velike koristi. Brez dvoma. Morda imate doma robota, ki lahko opravlja dejavnosti, podobne Jetsonu, kot je čiščenje vaše hiše, pomivanje posode in druga opravila v gospodinjstvu. Imeli bomo napredne robote za uporabo v tovarnah in proizvodnih obratih. Roboti se lahko splazijo ali manevrirajo v tesnih prostorih, na primer, ko se zgradba zruši in so ogrožena človeška življenja, ki jih je treba rešiti. In tako naprej.

Poleg tega se vam bo morda zdela zanimiva moja nedavna kritična reportaža o Teslovem dnevu umetne inteligence, na katerem je Elon Musk predstavil nekakšne hodeče robote kot prihodnost za Teslo in družbo, glej povezava tukaj.

Nazaj k obravnavani zadevi. Ko resno razpravljamo o plešočih ali hodečih robotih, moramo pozorno upoštevati kompromise ali skupno ROI (Return on Investment) te uporabe umetne inteligence. Ne smemo si dovoliti, da bi se preveč navdušili nad koristmi, čeprav je treba upoštevati tudi stroške.

Nova sijoča ​​igrača ima lahko precej ostre robove.

Vse to spodbuja pomembno, a nekoliko zamolčano točko, da je del razloga, zakaj se zdaj pojavlja vprašanje orožja AI, napredek AI k avtonomni dejavnosti. Običajno smo pričakovali, da orožje na splošno upravlja človek. Človek se odloči, ali bo izstrelil ali uporabil orožje. Verjetno lahko od tega človeka zahtevamo odgovornost za svoja dejanja.

Umetna inteligenca, ki je zasnovana tako, da deluje samostojno ali ki jo je mogoče pretentati, bi človeka na videz odstranila iz zanke. AI nato algoritemsko sprejema računalniške odločitve, ki lahko na koncu povzročijo umor ali škodo ljudem. Poleg očitnih pomislekov glede pomanjkanja nadzora nad umetno inteligenco imate tudi pomisleke, da bomo morda imeli težave pri pripisovanju odgovornosti glede dejanj umetne inteligence. Nimamo človeka, ki bi bil naš očiten pobudnik.

Zavedam se, da nekateri verjamejo, da bi morali umetno inteligenco preprosto in neposredno imeti za odgovorno za svoja dejanja, kot da je umetna inteligenca postala čustvena ali kako drugače podeljena status pravne osebe (glejte moje poročanje o razpravah o pridobivanju pravne osebnosti umetne inteligence na povezava tukaj). To za zdaj ne bo šlo. Umetni inteligenci bomo morali slediti ljudem, ki so jo izumili ali postavili. Nedvomno se bodo poskušali zakonito izogniti odgovornosti s trditvijo, da je umetna inteligenca presegla tisto, kar so si zamislili. To je vse večji spor, s katerim se moramo soočiti (za vpogled v vpletena sporna vprašanja si oglejte moje zapise o zakonu o AI).

Združeni narodi (ZN) so prek konvencije o določenem konvencionalnem orožju (CCW) v Ženevi določili enajst nezavezujočih vodilnih načel o smrtonosnem avtonomnem orožju, kot je razvidno iz uradnega poročila, objavljenega na spletu (vključuje sklicevanja na ustrezne določbe mednarodnega humanitarnega prava ali MHP). , vključno z:

(a) mednarodno humanitarno pravo se še naprej v celoti uporablja za vse oborožitvene sisteme, vključno s potencialnim razvojem in uporabo smrtonosnih avtonomnih oborožitvenih sistemov;

(b) Človeško odgovornost za odločitve o uporabi orožnih sistemov je treba ohraniti, saj odgovornosti ni mogoče prenesti na stroje. To je treba upoštevati v celotnem življenjskem ciklu oborožitvenega sistema;

(c) Interakcija človek-stroj, ki ima lahko različne oblike in se izvaja na različnih stopnjah življenjskega cikla orožja, bi morala zagotoviti, da je potencialna uporaba orožnih sistemov, ki temeljijo na nastajajočih tehnologijah, na področju smrtonosnih avtonomnih orožnih sistemov v skladnost z veljavnim mednarodnim pravom, zlasti MHP. Pri določanju kakovosti in obsega interakcije človek-stroj je treba upoštevati vrsto dejavnikov, vključno z operativnim kontekstom ter značilnostmi in zmogljivostmi oborožitvenega sistema kot celote;

(d) odgovornost za razvoj, namestitev in uporabo katerega koli nastajajočega sistema orožja v okviru KKO mora biti zagotovljena v skladu z veljavnim mednarodnim pravom, vključno z delovanjem takšnih sistemov znotraj odgovorne verige človeškega poveljevanja in nadzora;

(e) V skladu z obveznostmi držav po mednarodnem pravu je treba pri preučevanju, razvoju, pridobivanju ali sprejetju novega orožja, sredstev ali metode vojskovanja ugotoviti, ali bi bila njegova uporaba v nekaterih ali vseh okoliščinah prepovedano z mednarodnim pravom;

(f) Pri razvoju ali pridobivanju novih oborožitvenih sistemov, ki temeljijo na nastajajočih tehnologijah na področju smrtonosnih avtonomnih oborožitvenih sistemov, fizične varnosti, ustreznih nefizičnih varoval (vključno s kibernetsko varnostjo pred vdori ali ponarejanjem podatkov), tveganje pridobitve s strani terorističnih skupin in je treba upoštevati tveganje širjenja;

(g) Ocene tveganja in ukrepi za ublažitev bi morali biti del cikla načrtovanja, razvoja, testiranja in uvajanja nastajajočih tehnologij v vseh oborožitvenih sistemih;

(h) upoštevati je treba uporabo nastajajočih tehnologij na področju smrtonosnih avtonomnih oborožitvenih sistemov pri zagotavljanju skladnosti z MHP in drugimi veljavnimi mednarodnimi pravnimi obveznostmi;

(i) pri oblikovanju možnih političnih ukrepov nastajajoče tehnologije na področju smrtonosnih avtonomnih orožnih sistemov ne bi smele biti antropomorfizirane;

(j) razprave in morebitni politični ukrepi, sprejeti v okviru KKO, ne bi smeli ovirati napredka ali dostopa do miroljubne uporabe inteligentnih avtonomnih tehnologij;

(k) CCW ponuja ustrezen okvir za obravnavo vprašanja nastajajočih tehnologij na področju smrtonosnih avtonomnih orožnih sistemov v okviru ciljev in namenov konvencije, ki skuša vzpostaviti ravnovesje med vojaško nujnostjo in humanitarnimi vidiki.

Ti in drugi različni vojni zakoni in zakoni oboroženih spopadov ali IHL (Mednarodno humanitarno pravo) služijo kot pomemben in vedno obetaven vodnik za razmislek o tem, kaj bi lahko poskušali storiti glede pojava avtonomnih sistemov, ki so opremljeni z orožjem, bodisi s temeljnim kamnom načrtovanjem ali naknadnimi metodami.

Nekateri pravijo, da bi morali dokončno prepovedati tiste avtonomne sisteme AI, ki jih je mogoče uporabiti kot orožje. Tako je, svet bi se moral ustaviti in odločno zahtevati, da se avtonomni sistemi AI nikoli ne oborožijo. Uvesti je treba popolno prepoved. Konec zgodbe. Pika in pika.

No, iskreno si lahko želimo, da bi se prepoved smrtonosnih oboroženih avtonomnih sistemov dosledno in poslušno upoštevala. Težava je v tem, da je v kateri koli najbolj iskreni prepovedi nedvomno najti veliko prostora za premikanje. Kot pravijo, so pravila zato, da se jih krši. Lahko stavite, da bodo tam, kjer so stvari ohlapne, riffraff poiskali vrzeli in poskušali pomežikniti po pravilih.

Tukaj je nekaj možnih vrzeli, ki jih je vredno upoštevati:

  • Trditve o nesmrtonosnosti. Naredite nesmrtonosne avtonomne orožne sisteme (navidez v redu, ker je zunaj meja prepovedi), ki jih lahko nato za drobiž spremenite v smrtonosne (prepoved boste presegli šele v zadnjem trenutku).
  • Zahtevki samo za avtonomni sistem. Upoštevajte prepoved tako, da ne izdelujete avtonomnih sistemov, osredotočenih na smrt, medtem pa čim bolj napredujte pri oblikovanju vsakdanjih avtonomnih sistemov, ki (še) niso opremljeni z orožjem, vendar jih lahko za drobiž nadgradite v oborožitev.
  • Zahtevki, da niso povezani kot eno. Izdelajte avtonomne sisteme, ki sploh niso opremljeni z orožjem, in ko pride čas, nadomestno orožje, tako da lahko poskušate ostro trditi, da sta dva ločena elementa, in zato trditi, da ne spadata v rubriko vse-v-enem avtonomni oborožitveni sistem ali njegov bratranec.
  • Trdi, da ni avtonomen. Naredite oborožitveni sistem, za katerega se zdi, da nima avtonomnih zmogljivosti. Pustite prostor v tem domnevno neavtonomnem sistemu za vključitev avtonomije, ki temelji na AI. Ko je treba, priključite avtonomijo in že ste pripravljeni (do takrat na videz niste kršili prepovedi).
  • Ostalo

Obstaja veliko drugih izraženih težav pri poskusu popolne prepovedi smrtonosnih avtonomnih orožnih sistemov. Pokril jih bom še nekaj.

Nekateri strokovnjaki trdijo, da prepoved ni posebno uporabna in bi namesto tega morali obstajati regulativni predpisi. Zamisel je, da bodo te naprave dovoljene, a strogo nadzorovane. Predstavljena je litanija zakonitih uporab, skupaj z zakonitimi načini ciljanja, zakonitimi vrstami zmogljivosti, zakonito sorazmernostjo in podobnim.

Po njihovem mnenju je neposredna prepoved enaka, kot da bi potisnili glavo v pesek in se pretvarjali, da slon v sobi ne obstaja. Ta trditev pa povzroči vrelo kri tistim, ki nasprotujejo argumentu, da lahko z uvedbo prepovedi dramatično zmanjšate siceršnjo skušnjavo, da bi sledili tovrstnim sistemom. Seveda se bodo nekateri šopirili s prepovedjo, vendar vsaj upajmo, da večina ne bo. Nato se lahko osredotočite na razkazovalce in vam ni treba pozornosti usmerjati na vse.

Te razprave se vrtijo.

Druga pogosto opažena skrb je, da tudi če se dobri držijo prepovedi, slabi ne. To postavlja dobro v zanič položaj. Slabi bodo imeli te vrste oboroženih avtonomnih sistemov, dobri pa ne. Ko se stvari razkrijejo, da jih imajo slabi, bo prepozno, da bi jih dobri dohiteli. Skratka, edina pametna stvar je, da se pripravimo na boj proti ognju z ognjem.

Obstaja tudi klasična trditev o odvračanju. Če se dobri odločijo za izdelavo oboroženih avtonomnih sistemov, se to lahko uporabi za odvrnitev slabih od tega, da bi se skušali vključiti v spopad. Ali bodo dobri bolje oboroženi in tako odvrnili slabe, ali pa bodo dobri pripravljeni, ko bodo slabi morda razkrili, da so te sisteme ves čas prikrito snovali.

Proti tem nasprotnikom je, da z izdelavo oboroženih avtonomnih sistemov vodite oboroževalno tekmo. Druga stran si bo prizadevala imeti enako. Tudi če tehnološko ne morejo na novo ustvariti takšnih sistemov, bodo zdaj lahko ukradli načrte »dobrih«, naredili povratni inženiring visokotehnoloških drobovij ali posnemali vse, kar se jim zdi preizkušeno. način za opravljanje dela.

Aha, nekaj odgovora, vse to bi lahko privedlo do zmanjšanja konfliktov na videz medsebojnega. Če stran A ve, da ima stran B tisto smrtonosno avtonomno sistemsko orožje, in stran B ve, da ga ima stran A, bi lahko mirovali in se ne bi spopadli. To ima tisto posebno avro vibracij vzajemno zagotovljenega uničenja (MAD).

In tako naprej.

Pozorno preučite drugi odstavek

Tukaj smo že veliko obdelali in smo do sedaj obravnavali le prvi ali uvodni odstavek Odprtega pisma (skupaj so štirje odstavki).

Čas je, da si ogledate drugi odstavek, tukaj:

  • »Kot pri vsaki novi tehnologiji, ki ponuja nove zmogljivosti, pojav naprednih mobilnih robotov ponuja možnost zlorabe. Nezaupanja vredni ljudje bi jih lahko uporabili za poseganje v državljanske pravice ali za grožnje, škodovanje ali ustrahovanje drugih. Eno področje, ki vzbuja posebno skrb, je oborožitev. Verjamemo, da dodajanje orožja robotom, ki se upravljajo na daljavo ali avtonomno, so široko dostopni javnosti in so sposobni krmariti do prej nedostopnih lokacij, kjer ljudje živijo in delajo, povzroča nova tveganja škode in resna etična vprašanja. Uporaba orožja teh na novo zmogljivih robotov bo tudi škodila zaupanju javnosti v tehnologijo na načine, ki bodo škodovali izjemnim koristim, ki jih bodo prinesli družbi. Zaradi teh razlogov ne podpiramo oborožitve naših robotov za splošne namene z napredno mobilnostjo. Tisti med nami, ki smo o tem vprašanju govorili v preteklosti, in tisti, ki se s tem ukvarjamo prvič, se zdaj počutimo ponovno nujno v luči naraščajoče zaskrbljenosti javnosti v zadnjih mesecih, ki jo je povzročilo majhno število ljudi, ki so vidno objavili svoje improvizirane prizadevanja za oborožitev komercialno dostopnih robotov« (kot je objavljeno na spletu).

Ko preberete ta drugi odstavek, upam, da vidite, kako pride v ospredje moja prejšnja razprava o orožju z umetno inteligenco.

Preučimo nekaj dodatnih točk.

Nekaj ​​pomislekov glede določenega vidika besedila, ki je pri nekaterih vznemirilo, je, da se zdi, da pripoved poudarja, da bi lahko "nezaupanja vredni ljudje" zlorabili te robote z umetno inteligenco. Da, res, lahko so slabi ljudje ali zlobneži tisti, ki povzročijo podla dejanja, ki bodo "zlorabila" robote AI.

Obenem, kot je bilo poudarjeno na začetku te razprave, moramo tudi pojasniti, da bi lahko AI sama šla po zlu, po možnosti zaradi vdelanih hroščev ali napak in drugih podobnih zapletov. Izražen pomislek je, da zgolj poudarjanje možnosti za nezaupljivi ljudje je, da se zdi, da zanemarja druge škodljive možnosti. Čeprav večina podjetij in prodajalcev AI tega ne želi priznati, obstaja množica težav s sistemi AI, ki lahko zmanjšajo varnost in zanesljivost avtonomnih sistemov. Za moje pokrivanje varnosti umetne inteligence in potrebe po strogih in dokazljivih zaščitnih ukrepih glejte povezava tukaj, Npr.

Druga pomembna točka, ki se je pojavila med tistimi, ki so preučili odprto pismo, vključuje vključeno trditev, da bi lahko prišlo do spodkopavanja javnega zaupanja, povezanega z roboti AI.

Po eni strani je to veljavna trditev. Če se roboti z umetno inteligenco uporabljajo za zlobne ponudbe, lahko stavite, da bo javnost precej vznemirjena. Ko bo javnost vznemirjena, lahko stavite, da bodo zakonodajalci skočili v pohod in si prizadevali sprejeti zakone, ki omejuje robote z umetno inteligenco in izdelovalce robotov z umetno inteligenco. To bi lahko ohromilo robotsko industrijo umetne inteligence, če bodo zakoni vseobsegajoči in zaustavili prizadevanja, ki vključujejo prednosti robotske umetne inteligence. V nekem smislu bi otroka lahko vrgli ven s kopalno vodo (star izraz, ki bi si verjetno zaslužil upokojitev).

Postavljeno je tudi očitno vprašanje, ali je ta trditev o preprečevanju zmanjšanja zaupanja javnosti v robote z umetno inteligenco nekoliko sebična vera ali pa je v dobro vseh nas (ali je lahko oboje?).

Ti odločaš.

Zdaj smo prišli do posebej mesnega dela Odprtega pisma:

  • »Zavezujemo se, da naših robotov za splošno uporabo z napredno mobilnostjo ali programske opreme, ki jo razvijamo in omogoča napredno robotiko, ne bomo uporabili kot orožje, in ne bomo podpirali drugih pri tem. Ko bo mogoče, bomo skrbno pregledali predvidene aplikacije naših strank, da bi se izognili morebitnemu orožju. Prav tako se zavezujemo, da bomo raziskali razvoj tehnoloških funkcij, ki bi lahko ublažile ali zmanjšale ta tveganja. Da bo jasno, ne obremenjujemo se z obstoječimi tehnologijami, ki jih države in njihove vladne agencije uporabljajo za obrambo in spoštovanje svojih zakonov« (kot je objavljeno na spletu).

To lahko razpakiramo.

Sedite in se ustrezno pripravite.

Ste pripravljeni na nekaj ognjene polarizacije?

Po drugi strani pa nekateri glasno napovedujejo, da bi ti izdelovalci robotov z umetno inteligenco dali takšno obljubo. Zdi se, da si bodo ti izdelovalci robotov na srečo prizadevali, da svojih "splošnih" robotov z napredno mobilnostjo ne bodo oborožili. Poleg tega v odprtem pismu piše, da ne bodo podprli drugih, ki to storijo.

Kritiki se sprašujejo, ali se dogaja kakšno pametno besedoslovje.

Na primer, kje se začne in konča "napredna mobilnost"? Če izdelovalec robotov načrtuje a preprost-mobility AI robot namesto naprednega (kar je nedefiniran del tehničnega žargona), ali je to izključeno iz obsega tega, kar bo ne biti oborožen? Tako je očitno v redu oborožiti preprosto-mobilne robote AI, dokler niso t.i. napredno.

Enako velja za besedno zvezo robotov za splošne namene. Če je robot z umetno inteligenco zasnovan posebej za orožje in zato ni, naj rečemo a glavni namen robot, ali to postane izvedljiva izključitev iz obsega?

Lahko se prepirate s temi prepiri in goreče trdite, da je to le odprto pismo in ne pravni dokument na petdesetih straneh, ki opisuje vsak kotiček in špranjo.

To nas pripelje do pomislekov, ki so na videz bolj na makro ravni, kot so jih izrazili nekateri. Kaj v bistvu pomeni "obljuba"?

Nekateri se sprašujejo, kje je govedina?

Podjetje, ki tako obljubi, to navidezno počne brez pravega deleža v igri. Kaj se zgodi s tem podjetjem, če se vodstvo katerega koli podjetja, ki podpiše to obljubo, odloči, da obljube ne bo več spoštovalo? Bodo vodstveni kadri dobili po hitrem postopku? Se bo podjetje zaprlo in se krepko opravičilo za kršitev obljube? In tako naprej.

Kolikor je mogoče sklepati, ni posebne kazni ali kazni za kakršno koli kršitev zastave.

Lahko trdite, da obstaja možnost škode za ugled. Podjetje, ki daje zastavo, je lahko na trgu prizadeto, ker je dalo obljubo, ki je ni več upoštevalo. Seveda to tudi predpostavlja, da se bodo ljudje spomnili, da je bila obljuba dana. Prav tako predvideva, da bo kršitev obljube nekako odkrita (izrazito se zdi malo verjetno, da bo podjetje povedalo vse, če bo to storilo). Kršitelja obljube bi bilo treba poklicati, vendar bi lahko takšno vprašanje postalo le hrup v nenehnem cunamiju novic o izdelovalcih robotov z umetno inteligenco.

Razmislite o drugem kotu, ki se je pojavil.

Zastavno podjetje kupi neko večje podjetje. Večje podjetje se odloči, da bo robote za splošne namene z napredno mobilnostjo začelo spreminjati v različice z orožjem z umetno inteligenco.

Je to kršitev obljube?

Večje podjetje lahko vztraja, da ne gre za kršitev, saj (večje podjetje) nikoli ni dalo obljube. Medtem so neškodljivi roboti z umetno inteligenco, ki jih je manjše podjetje sestavilo in izdelalo z na videz najbolj altruističnimi nameni, skoraj čez noč predelani v orožje.

Nekako spodkopava obljubo, čeprav bi lahko rekli, da manjše podjetje ni vedelo, da se bo to nekega dne zgodilo. Bili so resni v svoji želji. Na to, kaj se je odločilo večje nakupovalno podjetje, je bilo izven njihovega nadzora.

Nekateri se tudi sprašujejo, ali je v tem kakšna pravna odgovornost.

Zastavno podjetje se čez nekaj mesecev odloči, da obljube ne bo izpolnilo. Premislili so. Ali je mogoče podjetje tožiti, ker je opustilo zastavo, ki jo je dalo? Kdo bi tožil? Kaj bi bila podlaga za tožbo? Pojavi se vrsta pravnih vprašanj. Kot pravijo, tožiš lahko skoraj kogarkoli, toda ali boš zmagal, je povsem druga stvar.

Razmislite o tem drugače. Zastavno podjetje dobi priložnost, da naredi res velik posel in proda cel kup svojih robotov za splošno uporabo z napredno mobilnostjo ogromnemu podjetju, ki je pripravljeno plačati na nos, da dobi robote. To je eden tistih nakupov z milijoni dolarjev, ki se zgodijo enkrat v življenju.

Kaj naj stori podjetje za robotiko z umetno inteligenco?

Če se z zastavnim podjetjem za robotiko umetne inteligence javno trguje, bi si skoraj zagotovo prizadevali za prodajo (enako bi lahko rekli za podjetje v zasebni lasti, čeprav ne povsem tako). Predstavljajte si, da je zastavno podjetje zaskrbljeno, da bi kupec poskusil robote oborožiti, čeprav recimo, da o tem ni nobene razprave. Govori se le, da bi kupec to lahko storil.

Skladno s tem zastavno podjetje v svojo licenco navede, da roboti ne smejo biti orožji. Kupec se temu jeziku odreče in odstopi od nakupa.

Kolikšnemu dobičku je obljubljeno podjetje za robotiko umetne inteligence pravkar odšlo?

Ali obstaja točka, na kateri dobiček v rokah odtehta vključitev zahteve glede omejitve licenciranja (ali morda pravno ubeseditev omejitve, da se omogoči manevriranje in še vedno doseže posel)? Mislim, da lahko vidite, kakšna je zagata. Na tone takšnih scenarijev je enostavno pričarati. Vprašanje je, ali bo ta obljuba imela zobe. Če da, kakšne zobe?

Skratka, kot je bilo omenjeno na začetku te razprave, so nekateri navdušeni nad tovrstno obljubo, drugi pa imajo bolj nejasno mnenje o tem, ali bo obljuba vzdržala vodo.

Gremo naprej.

Getting A Pledge Going

Četrti in zadnji odstavek odprtega pisma pravi tole:

  • »Zavedamo se, da samo naša zaveza ne zadostuje za popolno obravnavo teh tveganj, zato pozivamo oblikovalce politik, da sodelujejo z nami pri spodbujanju varne uporabe teh robotov in prepovedi njihove zlorabe. Prav tako pozivamo vse organizacije, razvijalce, raziskovalce in uporabnike v robotski skupnosti, da se podobno zavežejo, da ne bodo izdelovali, dovoljevali, podpirali ali omogočali pritrditve orožja na takšne robote. Prepričani smo, da koristi teh tehnologij za človeštvo močno odtehtajo tveganje zlorabe, in navdušeni smo nad svetlo prihodnostjo, v kateri bodo ljudje in roboti delali drug ob drugem pri reševanju nekaterih svetovnih izzivov« (kot je objavljeno na spletu).

Ta zadnji del Odprtega pisma vsebuje več dodatnih elementov, ki so zbudili jezo.

Nekateri trdijo, da je klicanje oblikovalcem politike lahko dobro ali slabo. Morda dobite oblikovalce politik, ki niso seznanjeni s temi zadevami, ki potem izvajajo klasično hitenje s sodbo in izdelujejo zakone in predpise, ki uzurpirajo napredek pri robotih z umetno inteligenco. Glede na prej navedeno bo morda inovacija, ki pospešuje robotski napredek AI, motena ali poteptana.

Bolje bodite prepričani, da veste, kaj zahtevate, pravijo kritiki.

Seveda je protiargument ta, da pripoved jasno navaja, da bi oblikovalci politik morali sodelovati s podjetji za robotiko umetne inteligence, da bi ugotovili, kako domnevno razumno sprejeti takšne zakone in predpise. Nasprotje protiargumentu je, da se lahko na oblikovalce politik gleda kot na izdelovalce robotov z umetno inteligenco, če ustrežejo njihovim muham. Nasprotje nasprotniku protiargumenta je, da je seveda nujno sodelovati s tistimi, ki poznajo tehnologijo, sicer bo izid potencialno neustrezen. itd.

Na podlagi morda prepirov so nekateri imeli zgago zaradi črte, ki poziva vse, naj podobno obljubijo, da ne pritrjevanje orožja do robotov za splošno uporabo z napredno mobilnostjo. Ključna beseda tam je beseda pritrjevanje. Če nekdo izdeluje robota z umetno inteligenco, ki vključuje ali brezhibno vgrajuje orožje, se zdi, da zaobide besedilo pritrjevanje nekaj. Zdaj lahko vidite, nekdo ostro trdi, da orožje ni pritrjeno, da je popolnoma sestavni del robota AI. Prebolite to, vzkliknejo, nismo v okviru te obljube in bi lahko celo rekli, da so.

To prinese še eno pritožbo glede pomanjkanja lepljivosti zastave.

Ali se lahko podjetje ali kdor koli sploh, ki se odloči za to zastavo, kadar koli razglasi za nezastavljeno, da to želi in iz katerega koli razloga tako želi?

Očitno je tako.

Veliko je prepirov o dajanju obljub in o tem, kakšno privlačnost jim dajejo.

zaključek

Joj, bi lahko rekli, ta podjetja, ki poskušajo delati pravo stvar, dobivajo bobne, ker poskušajo narediti pravo stvar.

Kaj se je zgodilo z našim svetom?

Vsakemu, ki da tako obljubo, je treba dati prednost dvoma, morda strastno trdite. Stopijo v javno sfero, da bi dali drzen in pomemben prispevek. Če jih zaradi tega začnemo blatiti, bo to zagotovo poslabšalo stvari. Nihče ne bo želel dati takšne obljube. Podjetja in drugi ne bodo niti poskusili. Skrili se bodo in družbe ne bodo vnaprej opozorili, v kaj se lahko ti dragi plešoči roboti nevarno spremenijo.

Skeptiki razglašajo, da način, kako spodbuditi družbo k modrosti, vključuje druge ukrepe, kot je opustitev domišljijskega dejanja razstavljanja norčavih plesočih robotov AI. Ali vsaj narediti bolj uravnoteženo dejanje. Na primer, namesto da zgolj oponašate ljubljene ljubljenčke zveste pse, ponazorite, kako so lahko plešoči roboti bolj podobni divjim spuščenim jeznim volkovom, ki lahko brez obotavljanja raztrgajo ljudi na koščke.

To bo pritegnilo več pozornosti kot obljube, prosijo.

Obljube so lahko nedvomno prava uganka.

Kot je zgovorno izjavil Mahatma Gandhi: "Ne glede na to, kako eksplicitna je obljuba, bodo ljudje besedilo obrnili in zasukali, da bo ustrezalo lastnemu namenu."

Morda za zaključek s spodbudno noto, Thomas Jefferson je rekel tole o obljubah: "Drug drugemu obljubljamo svoja življenja, naše bogastvo in našo sveto čast."

Ko gre za robote z umetno inteligenco, njihovo avtonomijo, njihovo oborožitev in podobno, bomo na koncu vsi skupaj sodelovali v tem. Naša medsebojna obljuba mora biti vsaj ta, da bomo te zadeve držali v ospredju, si bomo prizadevali najti načine za spopadanje s tem napredkom in nekako najti pot do zagotavljanja naše časti, naše bogastva in naših življenj.

Ali se lahko temu zavežemo?

Upam.

Vir: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- izdelovalci-robotov-pravijo-bodo-preprečili-ai-orožje/