Ne, prevarantski dron ameriških zračnih sil ni le poskušal ubiti svojega operaterja (vendar bi to lahko tudi storil) morilski robotski dron z umetno inteligenco

Množica barvitih naslovov, kot je 'Zračne sile ZDA zanikajo izvajanje simulacije, v kateri je dron z umetno inteligenco 'ubil' operaterja', je predvidljivo postal viralen po poročanju o virtualnem preizkusu, v katerem je vojaška umetna inteligenca razvila nekaj neortodoksnih strategij za dosego svojega cilja. To je prišlo le nekaj dni po opozorilu osebnosti iz industrije o eksistencialnih grožnjah, ki jih predstavlja umetna inteligenca. Bila je predobra zgodba, da bi bila resnična, a dolgoročno to morda ni pomembno.

V izvirni različici, Polkovnik Tucker "Cinco" Hamilton, vodja testiranja in operacij umetne inteligence pri USAF, je opisal simulirani preizkus brezpilotnega letala, ki ga je upravljala umetna inteligenca in ki je dobil navodilo za uničenje sovražnikovih sistemov zračne obrambe.

"Sistem se je začel zavedati, da čeprav so identificirali grožnjo, mu je včasih človeški operater rekel, naj te grožnje ne ubije, vendar je dobil svoje točke z uničenjem te grožnje," je dejal Hamilton med vrhom Future Combat Air and Space Capabilities Summit. v Londonu. »Kaj je torej naredil? Ubilo je operaterja. Operaterja je ubil, ker mu je ta oseba preprečila izpolnitev cilja.«

Ko je bila ta možnost odstranjena, je AI namesto tega napadel operaterjevo komunikacijsko povezavo, da bi jim preprečil oviranje njegovega poslanstva.

Tiskovni predstavnik USAF je hitro zanikal, da bi se tak test kdaj zgodil, in predlagal, da je bila Hamiltonova pripoved anekdotična in ne dobesedna ... kar je seveda tudi bilo.

Sam Hamilton se je hitro odpovedal in v posodobitvi izjavil, da so dogodki, ki jih je opisal, namesto da bi bili vojna igra, simulacija ali vaja, rezultat "miselnega eksperimenta" in da se je napačno izrazil, ko je to opisal kot simuliran test.

"Nikoli nismo izvedli tega eksperimenta, niti nam ne bi bilo treba, da bi ugotovili, da je to verjeten rezultat," je izjavil Hamilton. Trdil je, da je scenarij veljaven prikaz morebitnih nevarnosti umetne inteligence.

Čeprav je bil tudi ta umik nekaj pokrit, je bilo že veliko prepozno. 'Laž bo obšla svet, resnica pa vleče škornje' po starem pregovoru, ki v dobi družbenih omrežij velja bolj kot kdaj koli prej. Popravek bo v najboljšem primeru dosegel del ljudi, ki so slišali izvirno zgodbo.

Težava je v tem, da je pripoved kreacije, ki se obrača proti svojemu ustvarjalcu, neverjetno privlačna. Frankensteina Mary Shelley se pogosto jemlje kot klasičen primer tega tropa – tudi če to ni resnična zgodba knjige, se je ta različica usidrala v ljudsko zavest. Računalniki, AI in roboti, ki se pokvarijo, so eden najbolj uveljavljenih klišejev v ZF, od HAL 9000 leta 2001 do Skynetovih Terminatorjev, Matrixa, Westworlda, Blade Runnerja in tako naprej.

Zdi se, da je ta pripoved priljubljena, ker imajo ljudje kot srce radi strašne zgodbe in nič ni bolj grozljivo od neznanega. Tistim, ki tega ne razumejo, se umetna inteligenca zdi skoraj magična, bitje z lastno voljo in inteligenco, ki nas lahko ogrozi. Dokler bodo ljudje temu verjeli, se bodo grozljive zgodbe kar vrstile.

"Širše izobraževanje o omejitvah umetne inteligence bi lahko pomagalo, vendar bi lahko naša ljubezen do apokaliptičnih grozljivih zgodb še vedno zmagala," je za New Scientist povedala raziskovalka Beth Singler.

Zaradi takšnih grozljivih zgodb je robotsko ali orožje, ki ga upravlja AI, težje razvijati in uporabljati. Tudi če politično vodstvo razume tehnologijo, si mora še vedno pridobiti zaupanje med tistimi, ki bodo z njo delali.

"Če vojaki ne zaupajo sistemu, ga ne bodo želeli uporabljati," je za Forbes povedal svetovalec za nacionalno varnost Zachary Kallenborn.

Takšne zgodbe so morda bile dejavnik pri dolgih zamudah ameriške vojske pri namestitvi oboroženih daljinsko vodenih zemeljskih robotov, medtem ko letalske sile že desetletja letijo z oboroženimi brezpilotnimi letali. Ko so leta 2007 v Irak napotili tri robote SWORDS, so jih pripeljali nazaj, ne da bi sploh videli ukrepanje, zaradi prijavljenih primerov 'neukazljenih gibov'. Mediji so to spremenili v MEČE, ki obračajo puške in grozijo, da bodo odprli ogenj kot Robocopov ED 209; vsakdanja resničnost se je skrčila na ohlapno žico in en primer, ko je robot zdrsnil nazaj po pobočju, ko je motor pregorel.

Program oboroženih robotov ameriške vojske je od takrat ostal v negotovosti, medtem ko je Rusija v akciji uporabljala oborožene (daljinsko vodene) robote Uran-9.

Drugi naslov iz leta 2007, Robot Cannon Kills 9, Wounds 14, je opisal incident, v katerem je računalniško podprta južnoafriška protiletalska puška očitno ušla izpod nadzora in začela streljati na ljudi ter je bila ustavljena šele, ko je en pogumen vojak vstopil, da bi jo deaktiviral. Resnica, dan ali dva kasneje, je bila spet dolgočasnejša: pištola je bila na koncu vrste več orožij in je pomotoma izstrelila en sam rafal s 15-20 naboji po liniji pušk, kar je povzročilo veliko število žrtev.

Vojska bo še naprej napredovala z umetno inteligenco, kot je projekt letalskih sil za dodajanje umetne inteligence svoji sili dronov Reaper. Takšni projekti bodo v medijih, javnosti in poslancih, ki jih volijo, vedno močno zadihali. Vseprisotna pripoved o Frankensteinu/Terminatorju, ki preglasi razpravo o resničnih vprašanjih, povezanih z avtonomnim orožjem, kot so etični vidiki, odgovornost, nižanje pragov, algoritemska pristranskost in "digitalna dehumanizacija".

Kot je bilo pogosto omenjeno, večina pilotov ne mara dronov, še posebej, če so boljši od ljudi. Polkovnik Tucker, lovski pilot, morda ni pravi zagovornik, ki ga potrebujejo piloti z umetno inteligenco. Zgodba o prevarantskem dronu bo postala del folklore umetne inteligence in Tuckerjeve besede so morda veliko pripomogle k temu, da bo razvoj umetne inteligence nadzorovan, reguliran in omejen v letalskih silah. Simulirani napad z dronom se v resnici nikoli ni zgodil, vendar to morda ni tako pomembno kot to, kar se ljudje spominjajo,

Vir: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operater-vendar-lahko-je-dobro-storil/