Kakšna je posodobljena politika Pentagona o robotih ubijalcih?

Pentagon je izdal posodobitev svoje direktive 3000.09, ki pokriva tisto, kar imenujejo Avtonomija v orožnih sistemih in drugi kličejo 'morilski roboti.' Trenutni brezpilotni letalniki, kot sta Air Force in CIA MQ-9 žetve se upravljajo z daljinskim upravljalnikom: človek sedenje pred video ekranom identificira tarče na tleh tisoče milj stran, jih postavi v križec in sprosti a Raketa Hellfire ali drugo orožje. Avtonomno orožje je drugačno: izbere svoje tarče brez človekovega posredovanja. Potrebna so jasna pravila o tem, kdaj in kako se lahko uporabljajo, nova direktiva pa jih približuje.

Pred desetimi leti, ko je bila izdana prva različica 3000.09, je bilo avtonomno orožje videti kot znanstvena fantastika. Zdaj so zelo resnične. To so trdili ZN Droni, ki jih je dobavila Turčija, so samostojno napadali tarče v Libiji leta 2020, Rusija pa zdaj namešča lebdeče strelivo v Ukrajini s avtonomna zmogljivost.

Mnogi aktivisti, kot je Kampanja za ustavitev robotov ubijalcev, želijo popolno prepoved avtonomnega orožja in vztrajajo, da kakršno koli orožje na daljavo ostane pod nadzorom smiseln človeški nadzor ves čas. ZN razpravljajo o tem, kako nadzirajo tako orožje več let.

Vendar pa, kot jasno pove nova direktiva, se Pentagon drži drugačne linije.

"Ministrstvo obrambe je dosledno nasprotovalo političnemu standardu 'smiselnega človeškega nadzora', ko gre za avtonomne sisteme in sisteme AI," Gregory Allen, direktor projekta o upravljanju umetne inteligence pri Center za strateške in mednarodne študije, povedal mi je. »Najprimernejši umetniški izraz Ministrstva za obrambo je 'ustrezna raven človeške presoje', ki odraža dejstvo, da je v nekaterih primerih – na primer avtonomna nadzorna letala in nekatere vrste avtonomnega kibernetskega orožja – ustrezna raven človeškega nadzora lahko majhna ali nič .”

Kakšno avtonomno orožje bi bilo dovoljeno v kakšnih okoliščinah? Allen meni, da je bila prejšnja različica direktive tako nejasna, da je odvračala kakršen koli razvoj na tem področju.

»Zmeda je bila tako razširjena – tudi med nekaterimi višjimi voditelji Ministrstva za obrambo –, da so se uradniki vzdržali razvoja nekaterih sistemov, ki jih pravilnik ne dovoljuje le, ampak tudi izrecno izvzete iz zahteve po pregledu višjih delavcev,« pravi Allen.

Niti eno orožje ni bilo predloženo v postopek pregleda za avtonomno orožje, določeno v izvirniku 3000.09 v desetih letih od objave.

Allen je napisal esej o tem za CSIS lani, kjer je opisal štiri področja, na katerih je bilo potrebno delo – formalno opredelitev avtonomnih oborožitvenih sistemov, navedbo, kaj »omogočeno z umetno inteligenco« pomeni za politiko, kako bo postopek pregleda obravnaval preusposabljanje modelov strojnega učenja in pojasnilo, katere vrste orožja zahtevajo iti skozi naporen postopek pregleda.

"Ministrstvo obrambe je implementiralo vse," pravi Allen.

Načeloma bi torej to moralo zagotoviti, kar Ministrstvo za obrambo izrazi, "močno in stalno zavezanost preglednemu globalnemu vodji pri oblikovanju odgovornih politik glede vojaške uporabe avtonomnih sistemov."

Vendar pa obstaja nekaj dodatkov, ki bi se lahko razumeli kot vrzeli, kot je izvzetje iz višjega pregleda za brezpilotna letala z avtonomnim orožjem, ki ne ciljajo na ljudi („protimaterialno orožje“), vendar bi jim bilo dovoljeno ciljati na izstrelke, druge brezpilotne zrakoplove. in potencialno drugih sistemov.

"Beseda 'obramba' opravi ogromno dela," Zak Kallenborn, mi je povedal politični sodelavec na Schar School of Policy and Government na Univerzi George Mason. "Če brezpilotno letalo deluje na sovražnem ozemlju, bi lahko skoraj vsako orožje razumeli kot 'obrambo' platforme."

Kallenborn tudi ugotavlja, da se dejansko avtonomno orožje, kot so mine, uporablja že več kot stoletje, vendar se pokrajina hitro spreminja zaradi napredka umetne inteligence in zlasti strojnega učenja. To je povzročilo sisteme, ki so zelo sposobni, vendar tehnično krhka – ko jim spodleti, spodleti na spektakularen način, kot na primer noben človek zamenjal želvo za puško.

»Avtonomija prek umetne inteligence vsekakor zasluži več skrbi glede na krhkost in pomanjkanje razložljivosti trenutno prevladujočih pristopov,« pravi Kallenborn.

Posodobitev ni velika. Vendar pa kaže na stalno zavezanost Pentagona razvoju učinkovitega avtonomnega orožja in prepričanje, da se lahko skladajo mednarodno humanitarno pravo — razlikovanje med civilisti in vojaškim osebjem, izogibanje poškodovanju civilistov ter uporaba le sorazmerne in potrebne sile.

Voditelji kampanje verjamejo, da umetna inteligenca ne bo imela potrebnega razumevanja za moralno presojo v vojnem času in tvega ustvarjanje sveta, kjer je vojna avtomatizirana in ljudje nimajo več nadzora. Drugi verjamejo, da bo ameriška vojska premagati nasprotnike z avtonomnim orožjem razen če je umetna inteligenca vključena na taktični ravni, in to preveč človeške vpletenosti upočasnjuje vojaške robote.

Argument se bo verjetno nadaljeval tudi, ko se bo začelo pojavljati avtonomno orožje, rezultati pa bodo pozorno spremljani. Kakor koli že, zdi se, da roboti ubijalci prihajajo.

Vir: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/