Etika umetne inteligence, ki se spopada z ognjevitim udarcem enega-dva tako avtonomnih orožnih sistemov, ki temeljijo na umetni inteligenci, kot tudi izkoriščanjem avtonomnih sistemov, ki jih poganja umetna inteligenca in so hudičevo oboroženi

Ti čudoviti plešoči štirinožni roboti.

Prepričan sem, da ste že videli tiste virusne videoposnetke štirinožnih robotskih sistemov, ki plešejo in poskakujejo na navidezno čudovite in pasje priljubljene načine. Zdi se, da uživamo, ko vidimo te robote, ki jih poganja umetna inteligenca, ko plezajo čez ovire in se zdi, da se občutljivo oprimejo, ko sedijo na vrhu škatel ali potem, ko so bili negotovo postavljeni na napite vrhove omar. Njihovi človeški oskrbniki bodo včasih zbadali ali potiskali norčave štirinožne robote, kar se zdi razburljivo nepošteno in lahko hitro dvigne vaš jez nad predrznim ravnanjem s temi glavnimi humanoidi.

Sprašujem pa se, ali ste že videli ne tako virusne videoposnetke povsem drugačnega kova.

Pripravi se.

Obstaja veliko objavljenih videoposnetkov, ki prikazujejo iste vrste štirinožnih robotov, ki so bili opremljeni z izrazitim takšnim ali drugačnim orožjem.

Na primer, mitraljez ali podobno strelno orožje je nameščeno na vrhu sicer znanega plesočega in poskočnega robota. Med štirinožnim robotom in strelnim mehanizmom orožja obstaja elektronska povezava. Računalniško hodeča naprava, ki je zdaj opremljena z orožjem, je prikazana, kako koraka proti mestu, kjer je bila postavljena tarča, mitraljez pa močno strelja na tarčo. Potem ko zabije naknadno delno uničeno tarčo, štirinožni robot pleše in poskakuje okrog bližnjih ovir ter se postavi v vrsto, da isto dejanje znova in znova ponovi na drugih novih tarčah.

Ni ravno tisto, kar ste morda pričakovali. To zagotovo odvzame lahkotnost in relativno veselje ob odkritem opazovanju teh ljubkih štirinožnih robotov, ki delajo svoje. Dobrodošli v ostri navidezni resničnosti neškodljivo avtonomni sistemi, ki se pretvarjajo ali preoblikujejo v močno orožje. Z zelo malo truda lahko čez noč pridobite avtonomni sistem, ki velja za "neoborožen", naknadno opremljen tako, da vsebuje celotno orožje.

V nekaterih okoliščinah je skoraj enostavno.

Razpravljal bom o tej zelo kontroverzni temi in obravnaval precej zajetne pomisleke glede etike umetne inteligence, ki se pojavljajo. Odpravili se bomo na potovanje v avtonomne sisteme, umetno inteligenco, avtonomna vozila, oborožitev in množico sorodnih bojnih vprašanj v zvezi z etično umetno inteligenco. Za moje stalno in obsežno pokrivanje etičnosti umetne inteligence in etične umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Začnimo z nekaj temeljnimi ključi.

Zaradi razprave sprejmite, da obstajata dva glavna načina za kategorizacijo avtonomnih sistemov, ki so bili oboroženi z orožjem:

1) Avtonomni oborožitveni sistemi (po zasnovi)

2) Avtonomni sistemi, ki so oboroženi (naknadno)

Med obema kategorijama je pomembna razlika.

V prvi vrsti bomo opredelili an avtonomni orožni sistem biti od samega začetka računalniško podprta stvaritev, ki je namenoma namenjena orožju. Razvijalci so imeli v mislih, da želijo izdelati orožje. Njihovo izrecno prizadevanje je izdelati orožje. Vedeli so, da lahko celostno združijo orožje z najnovejšimi tehnologijami avtonomnih sistemov. To je orožje, ki jezdi na valu visoke tehnologije, ki dosega avtonomno gibanje in avtonomna dejanja (v kratkem bom podrobneje razložil).

Nasprotno pa bomo v drugem primeru obravnavali zadevo avtonomnih sistemov, ki sploh nimajo posebne nagnjenosti k orožju. To so avtonomni sistemi, ki se razvijajo za druge namene. Zamislite si avtonomno vozilo, kot je samovozeči avtomobil, ki se bo uporabljal za zagotavljanje mobilnosti za vse in pomoč pri zmanjševanju na tisoče smrtnih žrtev letno zaradi avtomobilov, ki jih vozijo in upravljajo ljudje (glejte mojo poglobljeno pokritost pri povezava tukaj). Zdi se, da orožje ne pride v poštev pri tistih optimističnih prizadevanjih, ki spodbujajo družbo, da bi ljudi spravili izza volana in namesto tega postavili AI na voznikov sedež.

Toda te neškodljive avtonomne sisteme je mogoče orožiti, če ljudje to želijo.

To drugo kategorijo torej imenujem avtonomni sistemi, ki so oboroženi. Avtonomni sistem je bil prvotno in pobožno izdelan za domnevno neorožarske namene. Kljub temu sanjsko altruistično upanje ovrže nekdo nekje, ki dobi prevarantsko idejo, da bi lahko to zvijačo uporabili kot orožje. Kar naenkrat je avtonomni sistem, ki se je zdel ljubek, postal smrtonosno orožje, ker je označil neko obliko orožja (kot so prej omenjeni štirinožni roboti, podobni psu, ki imajo mitraljez ali podobno strelno orožje, ki je dodano njihovim funkcijam) .

Na žalost se obe kategoriji končata nekoliko na istem mestu, in sicer zagotavljata zmogljivost uporabe avtonomnih sistemov za orožje na potencialno smrtonosni osnovi.

Postopek priti do te končne točke bo verjetno drugačen.

Za popolnoma oborožene avtonomne sisteme, ki so bili opredeljeni kot orožje, so vidiki orožja običajno spredaj in v sredini. Lahko bi rekli, da so vidiki avtonomnega sistema oviti okoli temeljnega kamna katerega koli orožja, o katerem se razmišlja. Proces razmišljanja razvijalcev je nekako v skladu s tem, kako lahko orožje izkoristi pojav avtonomnih sistemov.

Druga perspektiva običajno sploh ni takšna miselnost. Razvijalci želijo izpeljati najsodobnejši avtonomni sistem, morda za izboljšanje človeštva. Ti razvijalci so vložili svoje iskreno srce in dušo v izdelavo avtonomnega sistema. To je jedro njihovega izuma. Morda si ne predstavljajo, da bi kdo uzurpiral ali spodkopal njihovo čudežno koristno napravo. Blaženo so navdušeni nad družbenimi koristmi, povezanimi z oblikovanjem in proizvodnjo avtonomnega sistema.

Na neki točki, recimo, da tretje osebe spoznajo, da je mogoče avtonomni sistem spremeniti v orožje. Mogoče pretentajo razvijalce, da jim dovolijo avtonomni sistem za, kot se trdi, vzvišene namene. Za zaprtimi vrati se ti zlobneži odločijo, da bodo avtonomnemu sistemu prikrito dodali zmogljivost orožja. Voila, nedolžnost spremenjena v čisto orožje.

Ni nujno, da se stvari odvijajo na tak način.

Morda je bilo razvijalcem rečeno, da razvijajo nedolžen avtonomni sistem, vendar so imeli tisti, ki so financirali ali usmerjali trud, v mislih druge namene. Morda se je prizadevanje za avtonomni sistem res začelo nedolžno, toda ko je bilo treba plačati račune, je vodstvo sklenilo dogovor z virom financiranja, ki hoče avtonomne sisteme iz nečednih razlogov. Druga možnost je, da so razvijalci vedeli, da bi lahko bila kasnejša uporaba za orožje, vendar so mislili, da bodo prečkali ta mučni most, ko ali če se bo kdaj pojavil. itd.

Obstaja veliko in veliko različnih poti, kako se vse to odvija.

Morda vas bo zanimalo, da sem v prejšnjih kolumnah opisal, da narašča ozaveščenost o etiki umetne inteligence glede dvojna raba elementi sodobne umetne inteligence, gl povezava tukaj. Naj vas na kratko seznanim s tem.

Sistem umetne inteligence, ki je predviden kot dober, je lahko včasih na robu slabega, morda z nekaj precej preprostimi spremembami, in temu primerno velja, da ima dvojno rabo. V novicah je bil nedavno sistem umetne inteligence, ki je bil zgrajen za odkrivanje kemikalij, ki bi lahko bile morilci, za katere so razvijalci želeli zagotoviti, da se lahko izognemo ali smo previdni pri takšnih slabo premišljenih kemikalijah. Izkazalo se je, da bi lahko umetno inteligenco nekoliko enostavno prilagodili, da bi predano odkrila te ubijalske kemikalije in tako potencialno omogočila zlobnežem, da vedo, katere vrste kemikalij bi lahko skuhali za svoje grozne zlobne načrte.

Avtonomni sistemi se lahko dokazljivo prilegajo temu ovoju z dvojno rabo.

Do neke mere je zato etika umetne inteligence in etična umetna inteligenca tako ključna tema. Navodila etike umetne inteligence nas spodbujajo, da ostanemo pozorni. Tehnologi umetne inteligence se lahko včasih ukvarjajo s tehnologijo, zlasti z optimizacijo visoke tehnologije. Ni nujno, da upoštevajo večje družbene posledice. Imeti miselnost o etiki umetne inteligence in to vključiti v razvoj in uporabo umetne inteligence je bistvenega pomena za ustvarjanje ustrezne umetne inteligence, vključno (morda presenetljivo ali ironično) z oceno, kako podjetja sprejmejo etiko umetne inteligence.

Poleg uporabe etičnih predpisov umetne inteligence na splošno obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Pravzaprav vnaprej opozarjajo, da bomo, če bomo sprejeli nekatere od teh zakonov o umetni inteligenci, spodkopali zlato gos z omejevanjem napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti.

Avtonomija in orožje kot dve zapovedi

Obstaja fraza, ki jo nekateri uporabljajo, da bi opozorili na oborožene avtonomne sisteme vseh vrst, ki so skupaj skovani kot slaughterbots.

To odpira dodaten vidik, o katerem bi morali razmisliti.

Ali mora avtonomni orožni sistem in/ali avtonomni sistem, ki je bil oborožen, prevladovati kot smrtonosni ali ubijalski robot?

Nekateri bi trdili, da lahko imamo odločno ne smrtonosna tudi oboroženi avtonomni sistemi. Tako bi se s tega vidika zdelo skrajno neprimerno uporabljati izraze, kot so slaughterbots ali killer robots. Nesmrtonosna različica bi verjetno lahko ukrotila ali povzročila škodo, ki ni smrtonosna. Ti takšni sistemi ne ubijajo, imajo manjšo zmogljivost za ustvarjanje poškodb. Ne pretiravajte zmožnosti, pravijo tisti, ki vztrajajo, da se nam ni treba ukvarjati z odkritim ubijalskim strojem.

Tako bi lahko imeli tole:

  • Smrtonosni avtonomni orožni sistemi
  • Smrtonosni avtonomni sistemi, ki so bili oboroženi
  • Nesmrtonosni avtonomni orožni sistemi
  • Nesmrtonosni avtonomni sistemi, ki so bili oboroženi

Seveda je protiargument, da bi imel vsak avtonomni sistem, ki je bil opremljen z orožjem, potencial za zdrs v področje smrtonosnosti, tudi če bi bil domnevno predviden samo za uporabo na nesmrtonosni osnovi. Inkrementalna dva koraka prehoda od nesmrtonosnega do smrtonosnega boste hitro izvedli, ko že imate v roki orožje sredi avtonomnega sistema. Težko bi zagotovili železno jamstvo, da nesmrtonosni ne bodo skočili v smrtonosno areno (čeprav nekateri to poskušajo storiti na matematični videz).

Preden se podrobneje posvetimo tej splošni temi avtonomnih sistemov in oboroževanja, bi bilo morda koristno poudariti še nekaj, kar, čeprav je morda očitno, ni nujno na vidnem mestu.

Tukaj je:

  • Obstaja vidik AI, ki je sestavni del avtonomnega sistema
  • Obstaja orožarski vidik, ki je orožarska stran te enačbe
  • Umetna inteligenca je lahko povezana tudi z orožjem

Razpakirajmo to.

Predvidevamo, da današnji avtonomni sistemi zahtevajo AI kot osnovno računalniško sredstvo za ustvarjanje avtonomnih vidikov. To omenjam, ker bi lahko poskušali trditi, da bi lahko uporabili tehnologije in tehnike, ki niso povezane z umetno inteligenco, za izdelavo avtonomnih sistemov, kar bi se sicer zdelo vse manj verjetno. V bistvu umetna inteligenca običajno omogoča večjo stopnjo avtonomije in večina temu ustrezno izkorišča visoko tehnologijo umetne inteligence.

V redu, torej imamo zmožnost, ki temelji na AI, ki je nekako vključena v avtonomni sistem in deluje tako, da vodi in nadzira avtonomni sistem.

Praviloma imejte to na dosegu roke.

Zdi se očitno, da moramo imeti tudi neko obliko orožja, sicer zakaj tukaj razpravljamo o temi avtonomnih sistemov in orožje. Torej, ja, očitno obstaja takšno ali drugačno orožje.

Ne bom se poglabljal v vrsto orožja, ki bi se lahko uporabilo. Lahko preprosto zamenjate katero koli orožje, ki vam pride na misel. Morda je natančno orožje. Morda obstaja masovno usmerjeno uničevalno orožje. Lahko je nekaj s kroglami ali projektili. Morda gre za nekaj, kar vsebuje kemikalije ali hlapne atomske komponente. Seznam je neskončen.

Dodaten premislek je, ali je umetna inteligenca povezana z orožjem ali ne. Umetna inteligenca morda le vzame orožje za vožnjo. V primeru štirinožnega robota, ki je streljal s pištolo, morda pištolo strelja človek, ki ima daljinski upravljalnik povezan s sprožitvijo orožja. Psu podoben robot krmari po prizoru, nato pa je na oddaljenem človeku, da potegne sprožilec.

Po drugi strani pa bi lahko bila umetna inteligenca sprožilec, tako rekoč. Umetna inteligenca je bila morda zasnovana tako, da ne le navigira in manevrira, ampak tudi aktivira orožje. V tem smislu umetna inteligenca dela vse od A do Ž. Ni odvisnosti od oddaljenega človeka, da bi opravil orožarsko plat stvari. AI je programiran za to namesto tega.

Da pojasnimo, da imamo v tem posebnem primeru uporabe avtonomnih sistemov z orožjem te vrste možnosti:

  • Avtonomni sistem: AI upravlja avtonomni sistem povsem sam
  • Avtonomni sistem: AI vodi avtonomni sistem, vendar lahko posreduje tudi človek v zanki
  • Orožje: Človek na daljavo upravlja z orožjem (AI ne)
  • Orožje: AI upravlja z orožjem, vendar lahko posreduje tudi človek v zanki
  • Orožje: AI upravlja orožje povsem sam

Prej sem obravnaval različice človeka v zanki v zvezi z avtonomnimi sistemi in avtonomnimi vozili, glejte povezava tukaj.

Ko gledate te zabavno usmerjene videoposnetke plešočih in poskakujočih štirinožnih robotov, naj bi bili to običajno roboti, ki jih upravlja izključno umetna inteligenca (no, to je navada ali pravi bonton med tistimi, ki so zelo v te zadeve). To lahko tudi upravičeno domnevate. Seveda tega ne veš zagotovo. Mogoče je, da oddaljeni človeški operater vodi robote. Obstaja tudi možnost, da umetna inteligenca opravlja del vodenja, to pa počne tudi oddaljeni človeški operater, ki morda pomaga umetni inteligenci, če se robot znajde v težkem položaju in ne more računalniško izračunati izvedljivega načina, da se osvobodi.

Bistvo tukaj je, da obstajajo številni okusi, kako je mogoče mešati AI in avtonomne sisteme ter oborožitev. Nekateri imajo AI, ki poganja avtonomni sistem, vendar ne poganja orožja. Človek morda upravlja z orožjem na daljavo. Drugi vidik je, da je orožje morda aktivirano vnaprej in avtonomni sistem dostavi aktivirano orožje, tako da AI ni neposredno sodeloval pri sprožitvi orožja kot takega in je namesto tega deloval kot dostavno vozilo. In mogoče je, da je umetna inteligenca pregovorno mojster vseh obrti in uporablja celoten nabor vidikov avtonomnega sistema tudi pri uporabi orožja.

Izberite svoj.

Medtem pa vedite, da je človek v zanki velik dejavnik, ko gre za razprave o tej temi.

Nekateri ločujejo, da če umetna inteligenca izvaja ciljanje in streljanje (ali karkoli že vključuje orožje), potem sta celoten komplet in caboodle prešla v ne-no zemljo. To se navidezno razlikuje od običajnega orožja "izstreli in pozabi", ki ima vnaprej ciljano izbiro, ki jo določi človek, kot je patruljni dron, ki ima raketo, pripravljeno za streljanje na tarčo, ki je bila že izbral človek.

Nekateri se sprašujejo, zakaj avtonomni sistemi, ki so opremljeni z orožjem, ne bi vedno vključevali človeka v zanki v celotnem procesu, ko je avtonomni sistem v stanju aktivnega delovanja. Zdi se, kot da bi nam bilo bolje, če bi bila stroga zahteva, da morajo vsi taki oboroženi avtonomni sistemi imeti človeka v zanki, bodisi za delovanje avtonomnega sistema bodisi za upravljanje orožja (ali za oboje). . Ohranjanje domnevne zanesljive in mirne človeške roke v tej mešanici umetne inteligence se morda zdi povsem premeteno.

Pripravite se na dolg seznam razlogov, zakaj to ni nujno izvedljivo.

Upoštevajte te težave:

  • Človek v zanki morda ne bo dovolj hiter, da bi se pravočasno odzval
  • Človek v zanki morda nima dovolj informacij, da bi se vestno odzval
  • Človek v zanki morda ne bo na voljo ob potrebnem času
  • Človek v zanki je morda neodločen in ne bo ukrepal, ko bo to potrebno
  • Človek v zanki lahko sprejme "napačno" odločitev (relativno)
  • Človek v zanki morda ne bo dostopen iz sistema ob potrebnem času
  • Človek v zanki se lahko zmede in preobremeni
  • Itd

Nedvomno ste v skušnjavi, da bi pogledali ta seznam človeških slabosti in omejitev in nato prišli do slovesne ugotovitve, da je očitno smiselno izločiti človeka v zanki in namesto tega vedno uporabiti umetno inteligenco. To bi lahko pomenilo izključitev človeka v zanki ali pa bi morda AI lahko preglasil zakoreninjeno zasnovo človeka v zanki. Oglejte si mojo analizo o tem, kako lahko nesoglasja med umetno inteligenco in človekom v zanki vodijo v negotove situacije, zajeto na povezava tukaj.

Pogosto omalovažujoč seznam tovrstnih slabosti, ki se osredotočajo na človeka v realnem času, ostane sam od sebe in pusti dolgotrajen vtis, da mora biti AI na nek način naskok veliko pametnejša izbira kot imeti človeka v zanki . Ne ujemite se v to zahrbtno past. Vključeni so streznitveni kompromisi.

Razmislite o teh razvejanosti AI:

  • AI lahko naleti na napako, zaradi katere zaide
  • AI je lahko preobremenjen in se ne odziva
  • AI lahko vsebuje napake razvijalca, ki povzročajo nepravilno vedenje
  • AI se lahko pokvari z vsajenim virusom zlobneža
  • AI lahko prevzamejo kibernetski hekerji v realnem času
  • Umetna inteligenca se lahko šteje za nepredvidljivo zaradi kompleksnosti
  • AI lahko računsko sprejme "napačno" odločitev (relativno)
  • Itd

Verjamem, da vidite, da obstajajo kompromisi med uporabo človeka v zanki in odvisnostjo samo od umetne inteligence. Če ste v skušnjavi, da bi namigovali, da je pripravljena rešitev uporaba obeh, bi rad poudaril, da lahko dobite najboljše iz obeh svetov, vendar lahko dobite tudi najslabše iz obeh svetov. Ne predpostavljajte, da bo vedno in zagotovo najboljše iz obeh svetov.

Morda ste bili nekoliko presenečeni nad eno od zgoraj naštetih slabosti umetne inteligence, natančneje, da je umetna inteligenca nepredvidljivo. Navajeni smo verjeti, da naj bi bila AI strogo logična in matematično natančna. Kot tak lahko tudi pričakujete, da bo AI popolnoma predvidljiv. Natančno naj bi vedeli, kaj bo AI naredil. Pika, konec zgodbe.

Oprostite, ker sem počil ta balon, vendar je ta mit o predvidljivosti napačen. Velikost in kompleksnost sodobne umetne inteligence je pogosto močvirje, ki kljubuje popolni predvidljivosti. To je razvidno iz nemirov glede etične umetne inteligence glede nekaterih današnjih načinov uporabe strojnega učenja (ML) in globokega učenja (DL). Bom pojasnil malo več v trenutku.

Prav tako si boste morda želeli ogledati mojo najnovejšo analizo prihajajočih trendov v smeri poskušanja zagotoviti preverljive in matematično dokazljivo pravilne sisteme umetne inteligence prek najnovejše varnosti umetne inteligence na povezava tukaj.

Premišljevanje o pravilih ceste

Omenil sem pojem ciljev in ciljanja, ki je precej obremenjena terminologija, ki si zasluži veliko pozornosti.

O tem lahko razmišljamo:

  • Tarče, ki so ljudje
  • Tarče, ki niso ljudje, ampak so živa bitja
  • Tarče, ki se razumejo kot lastnina

Recimo, da imamo avtonomni sistem, ki je oborožen. AI se uporablja za vodenje avtonomnega sistema in za orožje. Umetna inteligenca naredi vse od A do Ž. Človeka v zanki ni. Kar zadeva ciljanje, bo umetna inteligenca izbrala cilje. Ni vnaprejšnjega ciljanja, ki bi ga vzpostavili ljudje. Namesto tega je bila umetna inteligenca programirana tako, da na splošno ugotavlja, ali obstajajo ljudje, ki naj bi bili tarča (morda iskanje sovražnih dejanj, določenih vrst uniform itd.).

Z mano pri tem doslej?

Ta scenarij je skoraj tisti, ki povzroča največ negodovanja glede oboroženih avtonomnih sistemov.

Izražena skrb je, da AI počne (vsaj) tri stvari, ki ji ne bi smele biti dovoljene:

  • Ciljanje na ljudi kot tarče
  • Ciljanje brez uporabe človeka v zanki
  • Potencialno deluje nepredvidljivoly

Upoštevajte, da so poudarjeno omenjene skrbi glede nepredvidljivosti umetne inteligence. Mogoče je, da čeprav je bila umetna inteligenca programirana tako, da cilja na določene vrste ljudi, programiranje umetne inteligence ni tisto, kar smo mislili, da je, in umetna inteligenca na koncu cilja na »prijatelje« poleg tistih, ki naj bi jih umetna inteligenca razumela kot »sovražnike«. ” (ali morda namesto). Poleg tega, tudi če se odločimo vključiti določbo o človeku v zanki, lahko nepredvidljivost umetne inteligence pomeni, da ko naj bi se AI povezal s človekom v zanki, to ne stori tako in deluje brez človekovega posredovanja.

Morda se vam bo zdelo zanimivo, da je Mednarodni odbor Rdečega križa (ICRC) ponudil krovno stališče v treh točkah o avtonomnih oborožitvenih sistemih, ki podrobneje obravnava te vrste skrbi (na spletni strani ICRC):

1. »Nepredvidljive avtonomne oborožitvene sisteme je treba izrecno omejiti ven, predvsem zaradi njihovih nediskriminatornih učinkov. To bi najbolje dosegli s prepovedjo avtonomnih oborožitvenih sistemov, ki so zasnovani ali uporabljeni na način, da njihovih učinkov ni mogoče dovolj razumeti, predvideti in pojasniti.«

2. »V luči etičnih razlogov za zaščito človeštva in spoštovanje pravil mednarodnega humanitarnega prava za zaščito civilistov in borcev hors de combat, uporabo avtonomnih orožnih sistemov za ciljanje na ljudi je treba izključiti. To bi najbolje dosegli s prepovedjo avtonomnih orožnih sistemov, ki so zasnovani ali se uporabljajo za uporabo sile proti osebam.

3. „Da bi zaščitili civiliste in civilne objekte, spoštovali pravila mednarodnega humanitarnega prava in zaščitili človečnost, bi bilo treba urediti načrtovanje in uporabo avtonomnih oborožitvenih sistemov, ki ne bi bili prepovedani, vključno s kombinacijo: omejitve glede vrst ciljev, kot je omejitev na predmete, ki so po naravi vojaški cilji; omejitve glede trajanja, geografskega obsega in obsega uporabe, vključno z omogočanjem človeške presoje in nadzora v zvezi z določenim napadom; omejitve situacij uporabe, na primer omejitev na situacije, kjer civilisti ali civilni objekti niso prisotni; rzahteve za interakcijo človek-stroj, zlasti za zagotovitev učinkovitega človeškega nadzora ter pravočasnega posredovanja in deaktivacije.«

V zvezi s tem so Združeni narodi (ZN) prek konvencije o določenem konvencionalnem orožju (CCW) v Ženevi določili enajst nezavezujočih vodilnih načel o smrtonosnem avtonomnem orožju, kot je razvidno iz uradnega poročila, objavljenega na spletu (vključuje sklicevanja na ustrezne mednarodne humanitarne Določbe zakona ali MHP):

(a) mednarodno humanitarno pravo se še naprej v celoti uporablja za vse oborožitvene sisteme, vključno s potencialnim razvojem in uporabo smrtonosnih avtonomnih oborožitvenih sistemov;

(b) Človeško odgovornost za odločitve o uporabi orožnih sistemov je treba ohraniti, saj odgovornosti ni mogoče prenesti na stroje. To je treba upoštevati v celotnem življenjskem ciklu oborožitvenega sistema;

(c) Interakcija človek-stroj, ki ima lahko različne oblike in se izvaja na različnih stopnjah življenjskega cikla orožja, bi morala zagotoviti, da je potencialna uporaba orožnih sistemov, ki temeljijo na nastajajočih tehnologijah, na področju smrtonosnih avtonomnih orožnih sistemov v skladnost z veljavnim mednarodnim pravom, zlasti MHP. Pri določanju kakovosti in obsega interakcije človek-stroj je treba upoštevati vrsto dejavnikov, vključno z operativnim kontekstom ter značilnostmi in zmogljivostmi oborožitvenega sistema kot celote;

(d) odgovornost za razvoj, namestitev in uporabo katerega koli nastajajočega sistema orožja v okviru KKO mora biti zagotovljena v skladu z veljavnim mednarodnim pravom, vključno z delovanjem takšnih sistemov znotraj odgovorne verige človeškega poveljevanja in nadzora;

(e) V skladu z obveznostmi držav po mednarodnem pravu je treba pri preučevanju, razvoju, pridobivanju ali sprejetju novega orožja, sredstev ali metode vojskovanja ugotoviti, ali bi bila njegova uporaba v nekaterih ali vseh okoliščinah prepovedano z mednarodnim pravom;

(f) Pri razvoju ali pridobivanju novih oborožitvenih sistemov, ki temeljijo na nastajajočih tehnologijah na področju smrtonosnih avtonomnih oborožitvenih sistemov, fizične varnosti, ustreznih nefizičnih varoval (vključno s kibernetsko varnostjo pred vdori ali ponarejanjem podatkov), tveganje pridobitve s strani terorističnih skupin in je treba upoštevati tveganje širjenja;

(g) Ocene tveganja in ukrepi za ublažitev bi morali biti del cikla načrtovanja, razvoja, testiranja in uvajanja nastajajočih tehnologij v vseh oborožitvenih sistemih;

(h) upoštevati je treba uporabo nastajajočih tehnologij na področju smrtonosnih avtonomnih oborožitvenih sistemov pri zagotavljanju skladnosti z MHP in drugimi veljavnimi mednarodnimi pravnimi obveznostmi;

(i) pri oblikovanju možnih političnih ukrepov nastajajoče tehnologije na področju smrtonosnih avtonomnih orožnih sistemov ne bi smele biti antropomorfizirane;

(j) razprave in morebitni politični ukrepi, sprejeti v okviru KKO, ne bi smeli ovirati napredka ali dostopa do miroljubne uporabe inteligentnih avtonomnih tehnologij;

(k) CCW ponuja ustrezen okvir za obravnavo vprašanja nastajajočih tehnologij na področju smrtonosnih avtonomnih orožnih sistemov v okviru ciljev in namenov konvencije, ki skuša vzpostaviti ravnovesje med vojaško nujnostjo in humanitarnimi vidiki.

Zagata, v kateri smo se znašli

Ti različni vojni zakoni, zakoni oboroženih spopadov ali IHL (Mednarodno humanitarno pravo) služijo kot pomemben in vedno obetaven vodnik za razmislek o tem, kaj bi lahko poskušali storiti glede pojava avtonomnih sistemov, ki so opremljeni z orožjem, bodisi s temeljno zasnovo ali po naknadnih metodah.

Iskreno si lahko želimo, da bi se prepoved smrtonosnih avtonomnih sistemov z orožjem dosledno in poslušno upoštevala. Težava je v tem, da se v kateri koli najbolj iskreni prepovedi najde veliko prostora za premikanje. Kot pravijo, so pravila zato, da se jih krši. Lahko stavite, da bodo tam, kjer so stvari ohlapne, riffraff poiskali vrzeli in poskušali pomežikniti po pravilih.

Tukaj je nekaj možnih vrzeli, ki jih je vredno upoštevati:

  • Trditve o nesmrtonosnosti. Naredite ne smrtonosna avtonomne oborožitvene sisteme (navidez v redu, ker je zunaj meja prepovedi), ki jih lahko nato za drobiž spremenite v smrtonosne (prepoved boste presegli šele v zadnjem trenutku).
  • Zahtevki samo za avtonomni sistem. Upoštevajte prepoved tako, da ne izdelujete avtonomnih sistemov, osredotočenih na smrt, medtem pa čim bolj napredujte pri oblikovanju vsakdanjih avtonomnih sistemov, ki (še) niso opremljeni z orožjem, vendar jih lahko za drobiž nadgradite v oborožitev.
  • Zahtevki, da niso povezani kot eno. Izdelajte avtonomne sisteme, ki sploh niso opremljeni z orožjem, in ko pride čas, nadomestno orožje, tako da lahko poskušate ostro trditi, da sta dva ločena elementa, in zato trditi, da ne spadata v rubriko vse-v-enem avtonomni oborožitveni sistem ali njegov bratranec.
  • Trdi, da ni avtonomen. Naredite oborožitveni sistem, za katerega se zdi, da nima avtonomnih zmogljivosti. Pustite prostor v tem domnevno neavtonomnem sistemu za vključitev avtonomije, ki temelji na AI. Ko je treba, priključite avtonomijo in že ste pripravljeni (do takrat na videz niste kršili prepovedi).
  • Ostalo

Obstaja veliko drugih izraženih težav pri poskusu popolne prepovedi smrtonosnih avtonomnih orožnih sistemov. Pokril jih bom še nekaj.

Nekateri strokovnjaki trdijo, da prepoved ni posebno uporabna in bi namesto tega morali obstajati regulativni predpisi. Zamisel je, da bodo te naprave dovoljene, a strogo nadzorovane. Predstavljena je litanija zakonitih uporab, skupaj z zakonitimi načini ciljanja, zakonitimi vrstami zmogljivosti, zakonito sorazmernostjo in podobnim.

Po njihovem mnenju je neposredna prepoved enaka, kot da bi potisnili glavo v pesek in se pretvarjali, da slon v sobi ne obstaja. Ta trditev pa povzroči vrelo kri tistim, ki nasprotujejo argumentu, da lahko z uvedbo prepovedi dramatično zmanjšate siceršnjo skušnjavo, da bi sledili tovrstnim sistemom. Seveda se bodo nekateri šopirili s prepovedjo, vendar vsaj upajmo, da večina ne bo. Nato se lahko osredotočite na razkazovalce in vam ni treba pozornosti usmerjati na vse.

Te razprave se vrtijo.

Druga pogosto opažena skrb je, da tudi če se dobri držijo prepovedi, slabi ne. To postavlja dobro v zanič položaj. Slabi bodo imeli te vrste oboroženih avtonomnih sistemov, dobri pa ne. Ko se stvari razkrijejo, da jih imajo slabi, bo prepozno, da bi jih dobri dohiteli. Skratka, edina pametna stvar je, da se pripravimo na boj proti ognju z ognjem.

Obstaja tudi klasična trditev o odvračanju. Če se dobri odločijo za izdelavo oboroženih avtonomnih sistemov, se to lahko uporabi za odvrnitev slabih od tega, da bi se skušali vključiti v spopad. Bodisi bodo dobri bolje oboroženi in tako odvrnili slabe, bodisi bodo dobri pripravljeni, ko bodo slabi morda razkrili, da so te sisteme ves čas prikrito snovali.

Proti tem nasprotnikom je, da z izdelavo oboroženih avtonomnih sistemov vodite oboroževalno tekmo. Druga stran si bo prizadevala imeti enako. Tudi če tehnološko ne morejo na novo ustvariti takšnih sistemov, bodo zdaj lahko ukradli načrte »dobrih«, naredili povratni inženiring visokotehnoloških drobovij ali posnemali vse, kar se jim zdi preizkušeno. način za opravljanje dela.

Aha, nekaj odgovora, vse to bi lahko privedlo do zmanjšanja konfliktov na videz obojestransko. Če stran A ve, da ima stran B tisto smrtonosno avtonomno sistemsko orožje, in stran B ve, da ga ima stran A, bi lahko mirovali in se ne bi spopadli. To ima tisto posebno avro vibracij vzajemno zagotovljenega uničenja (MAD).

In tako naprej.

AI v avtonomiji

Prepričajmo se, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli super inteligentno AI, je možno, da bi bila taka AI na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne AI kot možnosti glej pokritost tukaj).

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

Bodite zelo previdni pri antropomorfiziranju današnje umetne inteligence.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

S tem dodanim temeljnim ozadjem se ponovno obrnemo na temo avtonomnih sistemov in oborožitve. Prej smo videli, da AI vstopi v komponento avtonomnega sistema in lahko vstopi tudi v komponento orožja. Današnja umetna inteligenca ni čuteča. To je vredno ponoviti in to bom poudaril za dodaten vpogled v te zadeve.

Raziščimo nekaj scenarijev, da vidimo, kako je to ključnega pomena. Pri tej temi bom za trenutek opustil vojno orientacijo in pokazal, kako prežema mnoga druga družbena okolja. Ustrezno se umirite.

Avtonomni sistem, ki temelji na umetni inteligenci, kot je avtonomno vozilo, za katerega bomo rekli, da nima nobene zveze z orožjem, se prebija po običajnem okolju. Človek pride zraven, da bi uporabil avtonomno vozilo. Oseba je oborožena s slutečim orožjem. Zaradi razprave v tem posebnem scenariju domnevajte, da ima oseba v mislih nekaj neugodnega. Oseba vstopi v avtonomno vozilo (s svojim orožjem, skrito ali neskrito, tako ali drugače).

Avtonomno vozilo nadaljuje do cilja, ki ga je voznik zahteval. V tem primeru umetna inteligenca preprosto programsko prepelje tega potnika z ene lokacije prevzema na določeno destinacijo, tako kot je to počela na morda na desetine ali stotine potovanj, vsak dan.

Če bi bil to človeški voznik in vozilo, ki ga upravlja človek, verjetno obstaja nekaj možnosti, da bi človeški voznik ugotovil, da je sopotnik oborožen in da ima videti slabe namene. Človeški voznik lahko zavrne vožnjo vozila. Lahko pa se človeški voznik odpelje na policijsko postajo. Ali pa bi morda človeški voznik poskušal ukrotiti oboroženega potnika (obstajajo prijavljeni primeri) ali potnika odvrniti od uporabe orožja. Je precej zapleteno in obstaja lahko poljubno število različic. Težko bi trdili, da obstaja samo en pravi odgovor za rešitev takšne zagate. Na žalost je situacija mučna in očitno nevarna.

AI v tem primeru verjetno ne bo programiran za nobeno od teh vrst možnosti. Skratka, oboroženi potnik bi lahko med vožnjo uporabil svoje orožje, in to iz avtonomnega vozila. Vozni sistem z umetno inteligenco bo še naprej potoval in avtonomno vozilo se bo še naprej peljalo do navedenega cilja potnika (ob predpostavki, da se cilj sicer ne šteje za izven meja).

Večina sodobnih voznih sistemov z umetno inteligenco bi se računsko osredotočala le na cestišče in ne na napore kolesarja.

Stvari so lahko slabše od tega.

Recimo, da nekdo želi prepeljati kup živil na kraj, kjer potrebujejo dodatno hrano za tiste, ki potrebujejo. Oseba zahteva avtonomno vozilo in odloži vrečke z živili na zadnji sedež vozila. Ne bodo šli skupaj na vožnjo in samo uporabljajo avtonomno vozilo za dostavo vrečk s hrano namesto njih.

Zdi se popolnoma v redu.

Predstavljajte si, da se podlo oseba namesto tega odloči, da bo v avtonomno vozilo postavila neko obliko orožja, namesto bolj miroljubnega pojma vrečk z živili. Mislim, da lahko ugibate, kaj se lahko zgodi. To je skrb, na katero sem v svojih kolumnah večkrat opozarjal in opozarjal, da se moramo s tem spopasti prej kot slej.

Eden od ponujenih odgovorov na te vrste scenarijev je, da bi morda lahko vsa avtonomna vozila programirali tako, da uporabljajo svoje kamere in druge senzorje, da bi poskušali zaznati, ali je morebitni potnik oborožen in ima zlobne namene. Mogoče bi bila AI programirana za to. Ali pa umetna inteligenca elektronsko in tiho opozori oddaljenega človeškega operaterja, ki bi nato prek kamer vizualno in drugače pregledal potnika in po možnosti komuniciral z njim. Vse to je del zapletene in potencialno nerešljive pločevinke črvov, tako da sproža intenzivna vprašanja zasebnosti in množico drugih možnih pomislekov glede etične umetne inteligence. Oglejte si moje poročilo na povezava tukaj.

Druga nekoliko podobna alternativa je, da umetna inteligenca vsebuje neke vrste vdelano etično programiranje, ki poskuša umetni inteligenci omogočiti etične ali moralne presoje, ki so običajno rezervirane za človeške odločevalce. Preučil sem te vrste napovedovalcev računalniške etike, vgrajenih v AI, glej povezava tukaj in povezava tukaj.

Če se vrnemo k scenariju na bojnem polju, si zamislite, da smrtonosni avtonomni orožni sistem križari nad območjem spopadov. AI upravlja avtonomni sistem. AI upravlja orožje na krovu. Prej smo si zamislili možnost, da bi bila umetna inteligenca lahko programirana za iskanje navidezno sovražnih gibanj ali drugih indikatorjev človeških tarč, ki veljajo za veljavne bojevnike.

Ali bi moral ta isti AI imeti nekakšno etično usmerjeno komponento, ki si prizadeva računalniško razmisliti o tem, kaj bi človek v zanki lahko naredil, tako da deluje namesto človeka v zanki?

Nekateri pravijo, da, nadaljujemo s tem. Nekateri se zgroženo umaknejo in rečejo, da je to nemogoče ali kako drugače krši svetost človeštva.

Še ena pločevinka črvov.

zaključek

Za tiste, ki vas zanima ta tema, je treba še veliko več razpravljati.

Na hitro vam bom predstavil eno mučno uganko.

Običajno pričakujemo, da bo človek na koncu odgovoren za vse, kar se zgodi med vojno. Če umetna inteligenca nadzoruje avtonomni orožni sistem ali avtonomni sistem, ki je bil morda oborožen, in ta sistem na bojišču naredi nekaj, za kar se verjame, da je brezvestno, koga ali kaj je treba kriviti za to?

Lahko trdite, da bi morala biti AI odgovorna. Ampak, če je tako, kaj to točno pomeni? Današnjega umetne inteligence še ne smatramo za utelešenje pravne osebe, glejte mojo razlago na povezava tukaj. Brez pripenjanja repa oslu v primeru AI. Morda lahko poskusite to storiti, če bo AI nekega dne postal čuteč. Do takrat je to nekoliko dosegljivo (poleg tega, kakšnim kaznim ali posledicam bi bila izpostavljena umetna inteligenca, glejte mojo analizo na povezava tukaj in povezava tukaj, na primer).

Če umetna inteligenca ni odgovoren osumljenec, bi lahko potem seveda rekli, da je treba odgovarjati kateri koli človek ali ljudje, ki so izumili umetno inteligenco. Ali lahko to storite, če bi umetna inteligenca samo poganjala avtonomni sistem in bi prišli nekateri ljudje, ki bi to združili z orožjem? Ali sledite razvijalcem AI? Ali tisti, ki so uporabili AI? Ali samo igralec, ki oroži?

Verjamem, da razumete, da sem se dotaknil le vrha ledene gore v svoji iskreni razpravi.

Za zdaj pojdimo naprej in zaključimo ta diskurz. Morda se spomnite tistega Johna Lylyja Euphues: Anatomija duhovitosti leta 1578 nepozabno izjavil, da je v ljubezni in vojni vse pošteno.

Ali bi imel v mislih pojav avtonomnih oborožitvenih sistemov in prav tako pojav avtonomnih oboroženih sistemov?

Vsekakor si moramo to takoj zapomniti.

Vir: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- oborožitveni-sistemi-in-izkoriščanje-avtonomnih-sistemov-pogonjenih-ai-ki-so-hudičevo-oboroženi/