Etika umetne inteligence in avtonomni sistemi Lekcije, pridobljene iz nedavnega leta Alaska Airlines, kjer se pilot in kopilot pred vzletom nista strinjala in sta se nenadoma odločila, da se bosta s taksijem vrnila do terminala in šla vsak svojo pot

Letalske družbe so bile v zadnjem času kar nekaj v novicah.

Smo v poletni stiski poletov. Utrujeni in razočarani potniki se znajdejo pred najrazličnejšimi motnjami letov in motnjami letalskega voznega reda. Leti so nepričakovano odpovedani. Leti imajo zamude. Hlapi potnikov. Na žalost je bilo veliko primerov potnikov, ki so omogočili izbruh te nadloge, in videli smo preveč virusnih videoposnetkov medsebojnih spopadov in včasih udarjanja s pestmi.

Redkeje izvemo za spore med pilotom in kopilotom, do katerih lahko pride v pilotski kabini.

To je pravo presenečenje.

Dejansko smo seveda presenečeni, ko pomislimo, da bi imela pilot in kopilot kakršen koli videz resnega nesoglasja v kateri koli fazi leta. Če se nesoglasje nanaša na to, katera znamka kave je najboljša, domnevamo, da to ne bi vplivalo na delovni napor, ki vključuje letenje z letalom. Oba bi preprosto skomignila s pomanjkanjem oči v oči o temi, ki je na videz nepomembna za letenje. Njihovo profesionalno vedenje in dolgotrajno pilotsko usposabljanje bi začeli delovati in svojo pozornost bi usmerili nazaj na podrobnosti leta.

Vendar razmislite, kdaj a strokovno nesoglasje posega.

Z vami bom na kratko delil široko objavljeno novico o nedavnem primeru nečesa, kar se je zgodilo med letom v ZDA in se nanaša na domnevno strokovno nesoglasje v pilotski kabini.

To je v glavnem navedeno tukaj, da lahko raziščemo povezano temo, ki je zelo pomembna za pojav umetne inteligence (AI). Vidite, lahko pride do neke vrste, recimo temu, strokovnega nesoglasja med ljudmi v nesoglasju med človekom, ampak se lahko nekaj podobnega zgodi tudi med sprejetjem umetne inteligence in posledično posledično strokovnim nesoglasjem med človekom in umetno inteligenco. . Pojavljajo se različni premisleki glede etike umetne inteligence. Za moje obsežno in stalno poročanje o etiki umetne inteligence in etični vprašanjih umetne inteligence glejte povezava tukaj in povezava tukaj, da naštejemo samo nekatere.

Pripravite se na zanimivo zgodbo.

Kot so nedavno poročali v novicah, je med letom družbe Alaska Airline, ki je šlo iz Washingtona v San Francisco, očitno prišlo do "strokovnega nesoglasja". Po poročanju novic se je letalo odmaknilo od vrat in na pisti čakalo na dovoljenje za taksiranje in polet. Prihajala je nevihta, zaradi katere je let zamudil več kot uro in pol. Izkazalo se je, da se je letalo na koncu obrnilo in odpeljalo nazaj proti izhodom, za kar bi nekateri potniki običajno domnevali, da gre preprosto za varnostni ukrep, povezan z nevihto.

Po različnih tvitih se zdi, da sta se pilot in kopilot v času, ko sta bila tam v pilotski kabini, sporekla, in sta nekako prišla do zaključka, da bi bil najbolj preudaren pristop, da očistita let in se vrneta na terminal. . Iz tvitov je razvidno, da se kapitan in prvi častnik očitno nista mogla razumeti. Letalska družba je pozneje izdala izjavo, da je bila situacija obžalovanja vredna (situacija sama po sebi ni bila izrecno navedena ali pojasnjena), oba letalska častnika je vodstvo ocenilo in ocenilo, da sta primerna za letenje, posadki sta bili zamenjani in let je bil izveden in kasneje dosegel San Francisco.

V nekem smislu, če sta pilot in kopilot dejansko imela strokovna nesoglasja, na primer, ali je bilo letalo primerno pripravljeno za polet ali ali je bilo tveganje letenja skozi nevihto v ustreznem varnostnem območju, bi morali biti ti potniki razbremenjeni in hvaležen, da je bilo letalo vrnjeno do vrat. Bolje biti varen kot obžalovati. Dodatna zamuda je vredna domnevnega zmanjšanja tveganj, povezanih s potovanjem z letalom, ki se šteje za grobo ali neugodno.

Nekateri bodo morda presenečeni, da lahko pride do takšnega strokovnega nesoglasja.

Morda imamo napačen vtis, da je vse, kar se dogaja v pilotski kabini, povsem natančno in dobro zapisano. Zdi se, da je bila iz procesa izrinjena vsaka oblika človeške diskrecijske pravice. Na podlagi natančnih in temeljito izračunanih kart je let v redu za nadaljevanje ali pa ne. Ne more biti nikakršnega nesoglasja, če se misli, da celoten komplet in caboodle temeljita na neizpodbitnem preračunu dejstev in številk.

To ni vsa resnica. Seveda obstaja množica protokolov in vseh vrst zavor in ravnotežij, vendar to ne iztisne vsega kančka človeške presoje. Piloti in kopiloti še vedno izvajajo človeško presojo. Na srečo je ta človeška presoja izostrena z leti letenja. Možnosti so, da imata pilot in kopilot v komercialnem potniškem letalu veliko predhodnih izkušenj z letenjem in zlahka izkoristita svoje dolgoletno poglobljeno sklepanje in presojo, povezano s krmiljenjem letala.

Glede na pomembno vlogo človeške presoje bi lahko logično predvidevali, da bosta imela pilot in kopilot včasih poklicna nesoglasja. Večino časa je verjetno zelo malo takih nesoglasij. Pilot in kopilot za vsakodnevne lete bosta verjetno dobro usklajena glede na čas. Pričakujemo, da bo prišlo do večjega trenja le, če bo scenarij leta morda presegel običajne meje.

Če obstaja velika razlika v mnenjih med obema, bi si upal reči, da si želimo, da to razrešijo.

Predstavljajte si situacijo, v kateri pilot močno želi nadaljevati, vendar kopilot zazna, da so tveganja prevelika. Samo to, da bi se kopilot klanjal pilotu, bi se zdelo nezaželeno. Kopilot je kontrolo in ravnotežje glede tega, kar pilot morda razmišlja. Za tiste, ki želijo, da kopilot utihne in se samo brezglavo ravna po navodilih pilota, no, to ni veliko zagotovilo. Kopilot ni le rezervni "pilot", ki se pojavi šele, ko je pilot popolnoma nesposoben. To je napačno razumevanje vrednosti pilota in kopilota v pilotski kabini.

Obstaja drugi kot tega.

Razmislite o primeru pilota, ki ne verjame, da bi se moral let nadaljevati, medtem ko se kopilot navdušeno dvigne v zrak. Kaj potem? Po pričakovani hierarhiji naj bi pilot konvencionalno prevladal nad kopilotom. Določena vloga glavnega vodje naredi pilota večjega od tega, kar je sicer nekoliko enakovredno. Običajno ima pilot več skupnega časa letenja kot kopilot in posledično naj bi kopilot hierarhično upošteval želje pilota (kadar je v razumnem roku).

V vsakem primeru mislim, da se lahko vsi strinjamo, da je odločitev, da ne boste leteli, zagotovo manj tvegana izbira kot odločitev za letenje. Ko je letalo v zraku, postanejo stopnje tveganja ogromne v primerjavi z bivanjem na običajnih stabilnih tleh. Običajni komercialni let, ki preprosto zapelje nazaj do terminala, ne da bi se dvignil v zrak, bi bil precej prijateljska rešitev za vsako vročo ostro razpravo o poletu.

Prestavimo prestavo in uporabimo to živahno novico za povsem drugačen, a primerljiv namen.

Med nami postopoma prevladujejo avtonomni sistemi, ki temeljijo na AI. Včasih AI vodi šov, tako rekoč. Umetna inteligenca naredi vse od A do Ž in to bi si lahko razlagali kot popolnoma avtonomno ali skoraj samostojno umetno inteligenco. V drugih primerih imamo lahko AI, ki sodeluje s človekom v zanki in je do neke mere programiran tako, da je odvisen od človeka v zanki.

Rad bi se osredotočil na zadevo avtonomnega ali polavtonomnega sistema, ki temelji na AI in ima človeka v zanki že od samega začetka. AI in človek sta namerno stisnjena skupaj in naj bi delovala v tandemu drug z drugim. So kohorte pri opravljanju določene naloge. Nalogo ne bi smel izvajati sam AI. AI mora komunicirati z določenim človekom v zanki.

To karakterizacijo omenjam, da bi se razlikoval od situacij, v katerih se človek v zanki šteje za neobvezen vidik. V bistvu ima AI prosto pot. Če se umetna inteligenca odloči uporabiti človeka, naj bo tako. Nobene zahteve ni, da se mora AI dotikati baze ali delati z roko v roki z določenim človekom. Analize, ki jih bom navedel, so gotovo primerne za to vrsto opcijsko ureditev interakcije, vendar to ni tisto, na kar konkretno ciljam v tej razpravi.

V redu, torej imamo nekakšno nalogo, pri kateri bosta človek in umetna inteligenca delala skupaj, neločljivo drug od drugega. V abstraktnem smislu imamo človeka, ki sedi na enem sedežu, in sistem AI, ki sedi na drugem sosednjem sedežu. To pravim predrzno, ker te razprave ne omejujemo na primer na robota, ki morda dejansko sedi na sedežu. Metaforično namigujem na idejo, da AI nekje sodeluje pri nalogi, prav tako tudi človek. Fizično njihovo bivališče ni posebej pomembno za razpravo.

Morda niste prepričani, kdaj bi lahko prišlo do takšne okoliščine.

Preprosto.

Kasneje bom razpravljal o pojavu avtonomnih vozil in samovozečih avtomobilov. Na določenih stopnjah avtonomije naj bi AI in človek delovala skupaj. AI morda vozi avto in zahteva, da človek prevzame nadzor nad vožnjo. Človek morda vozi avto in aktivira AI, da prevzame nadzor. Za krmilom vožnje se izmenjujejo.

Poleg tega je pri nekaterih načrtih AI v bistvu ves čas aktiven (ali, razen če je izklopljen), tako da je AI vedno pripravljen. Poleg tega lahko AI neposredno posreduje, tudi brez človekovega vprašanja, odvisno od situacije, ki se odvija. Denimo, da se zdi, da je človek zaspal za volanom. Ker človek navidez ne more aktivirati umetne inteligence (ker oseba spi), je lahko umetna inteligenca programirana tako, da prevzame nadzor od človeka.

Nekatere zasnove pripeljejo AI in ljudi v dvojni pristop vožnje. Umetna inteligenca vozi in človek vozi. Ali, če vam je ljubše, vozi človek in tudi umetna inteligenca vozi. Vsak vozi vozilo. To primerjam s tistimi posebej opremljenimi avtomobili, ki ste jih morda uporabljali med usposabljanjem za voznike in sta bila v vozilu dva sklopa krmilnih elementov za vožnjo, eden za učenca in eden za učitelja vožnje.

To je le en primer okolja, v katerem lahko AI in ljudje skupaj delajo na nalogi. Obstajajo vse vrste možnosti. Druge vrste avtonomnih vozil bi lahko bile zasnovane podobno, kot so letala, brezpilotna letala, podvodna plovila, površinske ladje, vlaki itd. Ni nam treba upoštevati le nastavitev vozil in transporta. Predstavljajte si medicinsko področje in operacije, ki jih skupaj izvajata zdravnik in sistem AI. Seznam je neskončen.

Skoraj bi se rad skliceval na klasično razburljivo šalo o človeku in AI, ki skupaj stopita v bar. To je pravi smeh za tiste, ki se ukvarjajo z AI.

Resno, vrnimo se k fokusu človeka in sistema AI, ki skupaj delata na določeni nalogi. Najprej se želim izogniti antropomorfizaciji AI, kar bom vseskozi poudarjal. AI ni čuteč. Prosim, imejte to v mislih.

Tukaj je nekaj za razmislek: Ali se bo imenovani človek v zanki vedno povsem strinjal z umetno inteligenco, ki je sodelovala pri tem?

Za katero koli zapleteno nalogo se zdi malo verjetno, da bosta človek in umetna inteligenca v celoti in vedno v celoti usklajena. Človek se ob nekaterih priložnostih verjetno ne bo strinjal z AI. To predpostavko lahko prenesemo vse do banke.

Želim, da razmislite tudi o tej morda presenetljivi možnosti: Ali se bo umetna inteligenca vedno povsem strinjala z določenim človekom v zanki?

Še enkrat, za katero koli zapleteno nalogo se zdi povsem možno, da se umetna inteligenca ob nekaterih priložnostih ne bo strinjala z ljudmi. Če se že nagibate k ideji, da se mora AI vedno zmotiti, medtem ko imajo ljudje vedno prav, bi bilo pametno, da ponovno razmislite o tem prenagljenem sklepu. Predstavljajte si avto, v katerem človek in umetna inteligenca skupaj poganjata polavtonomno vozilo. Človek usmerja proti opečnemu zidu. Zakaj? Ne vemo, morda je človek vinjen ali je zaspal, vemo pa, da trčenje v opečnat zid ni dobra ideja, če je vse ostalo enako. Umetna inteligenca bi lahko zaznala prihajajočo nesrečo in se skušala odmakniti od bližajoče se ovire.

Vse povedano, imeli bomo jasno možnost, da se AI in človek ne strinjata drug z drugim. Drugi način, da rečemo isto stvar, je, da ljudje in AI se med seboj ne strinjajo. Upoštevajte, da ne želim, da bi zaporedje umetne inteligence in človeka proti človeku in umetni inteligenci nakazalo kar koli o smeri ali verjetnosti nesoglasja.

Dva delavca, en človek in drugi, ki je AI, se ne strinjata drug z drugim.

Vnaprej bi lahko izjavili, da kadarkoli pride do nesoglasja med dano AI in danim človekom, vnaprej razglasimo, da človek prevlada nad AI. Kot rečeno, se zdi, da nas moj ilustrativni primer o avtomobilu, ki se zaletava v opečni zid, odvrne, da bo imel človek vedno prav.

Nasprotno pa bi se lahko odločili, da vnaprej izjavimo, da bomo ob vsakem nesoglasju predhodno ugotovili, da ima AI prav, človek pa se moti. Tudi to ni določba, ki bi jo bilo smiselno posploševati. Predstavljajte si avto, v katerega ima umetna inteligenca vgrajeno programsko napako ali hrošč in poskuša umetna inteligenca vozilo usmeriti s ceste v jarek. Ob predpostavki, da je vse ostalo enako, bi moral biti človek sposoben premagati to dejanje vožnje z umetno inteligenco in preprečiti, da bi vozilo pristalo v žlebu.

Naredimo kratek povzetek tega:

  • Ali se bo človek v zanki vedno povsem strinjal z AI? Odgovor: No.
  • Ali se bo umetna inteligenca vedno povsem strinjala s človekom v zanki? Odgovor: Ne.
  • Bo imel človek v zanki vedno prav v primerjavi z AI? Odgovor: Ni nujno.
  • Bo AI vedno imel prav v primerjavi s človekom v zanki? Odgovor: Ni nujno.

Zagotovo lahko nastavite, da bo AI privzeto obravnavan kot "napačna" ali šibkejša stran in se zato vedno priklonite človeku, kadar koli se pojavi nesoglasje. Podobno lahko nastavite umetno inteligenco tako, da domneva, da je umetna inteligenca "prava", kadar koli se človek ne strinja z umetno inteligenco. Želim pojasniti, da lahko to naredimo programsko, če to želimo. Trdim pa, da na splošno temu ne bo vedno tako. Zagotovo obstajajo nastavitve, v katerih ne vemo vnaprej, ali ima AI "prav" ali ima človek "prav" v smislu odločitve za eno ali drugo glede nestrinjanja v zvezi z določeno nalogo.

Pripeljal sem vas do zelo pomembnega in zelo zapletenega vprašanja.

Kaj naj storimo, ko pride do strokovnega nesoglasja med človekom v zanki in umetno inteligenco (ali enakovredno lahko to izrazimo kot med umetno inteligenco in človekom v zanki)?

Ne poskušajte se izogniti vprašanju.

Nekateri bi morda trdili, da se to nikoli ne bi zgodilo, toda kot sem navedel v svojem primeru o avtomobilu, bi se zagotovo lahko zgodilo. Nekateri bi morda trdili, da je človek očitno boljši in mora zmagati v vseh nesoglasjih. Moj primer avtomobila in opečnega zidu to podre. Obstajajo zagovorniki umetne inteligence, ki morda vztrajajo pri tem, da mora biti umetna inteligenca zmagovalec zaradi navideznega premagovanja človeških čustev in brezobzirnega razmišljanja teh naključnih ljudi z mehkim razmišljanjem. Še enkrat, moj drugi primer, ki vključuje avto, ki drvi v jarek, spodkopava to trditev.

V resničnem svetu se umetna inteligenca in ljudje ne bodo strinjali, tudi če sta namerno združena v skupinsko situacijo, da opravita skupno nalogo. Zgodilo se bo. Ne moremo tiščati glave v pesek in se pretvarjati, da se to ne bo zgodilo.

Videli smo, da so se ljudje, ki so pilotirali letalo, očitno sporeli. Na srečo sta se strinjala, da se ne strinjata, tako se zdi. Letalo so pripeljali nazaj na terminal. Našli so način za reševanje nesoglasja. Rešitev njunega nesoglasja se je dobro obnesla, v primerjavi s tem, če bi se morda spopadli s pestmi v pilotski kabini ali morda odleteli v zrak in se še naprej bojevali drug z drugim. To je žalosten scenarij, ki je nevzdržen in lahko smo hvaležni, da se ni zgodil.

Dovolite mi, da predložim svoj seznam različnih načinov, na katere bi lahko rešili nesoglasja med AI in človekom v zanki (ali med človekom v zanki in AI):

  • Umetna inteligenca in združeni ljudje rešujejo stvari (prijateljsko ali ne)
  • Človek privzeto prevlada nad AI
  • AI privzeto prevlada nad človekom
  • Privzeto prevlada neka druga vnaprej določena fiksna ločljivost
  • Oseba tretje osebe je vpeta in njihova navedba prevlada nad strankami
  • Umetna inteligenca tretje osebe je vpeta v zanko in njena indikacija prevlada nad strankami
  • Tretji človek nadomesti obstoječega človeka, stvari se nadaljujejo na novo
  • Umetna inteligenca tretjih oseb nadomesti obstoječo umetno inteligenco, stvari se nadaljujejo na novo
  • Človek tretje osebe nadomesti obstoječo umetno inteligenco, stvari se nadaljujejo na novo (zdaj človek človeku)
  • AI tretjih oseb nadomesti obstoječega človeka, stvari se nadaljujejo na novo (zdaj AI-to-AI)
  • Ostalo

Te so zelo vredne, da jih razpakirate.

Preden se lotimo še nekaj mesa in krompirja o divjih in volnatih premislekih, na katerih temelji, kako ravnati z umetno inteligenco in človeškimi nesoglasji, predstavimo nekaj dodatnih osnov o zelo bistvenih temah. Na kratko se moramo potopiti v etiko umetne inteligence in zlasti pojav strojnega učenja (ML) in globokega učenja (DL).

Morda se nejasno zavedate, da je eden najglasnejših glasov teh dni na področju umetne inteligence in celo zunaj področja umetne inteligence zahtevanje večjega videza etične umetne inteligence. Oglejmo si, kaj pomeni sklicevanje na etiko umetne inteligence in etično umetno inteligenco. Poleg tega bomo raziskali, kaj mislim, ko govorim o strojnem učenju in poglobljenem učenju.

En poseben segment ali del etike umetne inteligence, ki je bil deležen velike medijske pozornosti, je umetna inteligenca, ki kaže nenaklonjene pristranskosti in neenakosti. Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Čez trenutek bom z vami delil nekaj splošnih načel, na katerih temelji etika umetne inteligence. Tu in tam je veliko tovrstnih seznamov. Lahko bi rekli, da še ni enotnega seznama univerzalne privlačnosti in soglasja. To je žalostna novica. Dobra novica je, da so vsaj na voljo seznami etike AI in so ponavadi precej podobni. Vse skupaj nakazuje, da z nekakšno obliko utemeljene konvergence iščemo pot do splošne skupnosti tega, iz česar je sestavljena etika umetne inteligence.

Najprej na kratko pokrijmo nekaj splošnih etičnih predpisov umetne inteligence, da ponazorimo, kaj bi moralo biti ključnega pomena za vsakogar, ki ustvarja, uporablja ali uporablja AI.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da se "samo koderji" ali tisti, ki programirajo umetno inteligenco, upoštevajo pojme etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

Prepričajmo se tudi, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli super inteligentno AI, je možno, da bi bila taka AI na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne AI kot možnosti glej pokritost tukaj).

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vrnimo se k našemu fokusu na nesoglasja med AI in človekom.

Prej sem navedel, da je to nekaj strategij za reševanje nesoglasij:

  • Umetna inteligenca in združeni ljudje rešujejo stvari (prijateljsko ali ne)
  • Človek privzeto prevlada nad AI
  • AI privzeto prevlada nad človekom
  • Privzeto prevlada neka druga vnaprej določena fiksna ločljivost
  • Oseba tretje osebe je vpeta in njihova navedba prevlada nad strankami
  • Umetna inteligenca tretje osebe je vpeta v zanko in njena indikacija prevlada nad strankami
  • Tretji človek nadomesti obstoječega človeka, stvari se nadaljujejo na novo
  • Umetna inteligenca tretjih oseb nadomesti obstoječo umetno inteligenco, stvari se nadaljujejo na novo
  • Človek tretje osebe nadomesti obstoječo umetno inteligenco, stvari se nadaljujejo na novo (zdaj človek človeku)
  • AI tretjih oseb nadomesti obstoječega človeka, stvari se nadaljujejo na novo (zdaj AI-to-AI)
  • Ostalo

Čas je, da jih razpakirate.

Najprej upoštevajte, da gre za vse to strokovni nesoglasja.

Poklicno nesoglasje je ohlapno opredeljeno kot nesoglasje, povezano z nalogo, povezano z delom.

Na primer, nesoglasje, ki nastane med pilotom in kopilotom glede tega, ali naj nadaljuje z letom, ki se sooča z nevihto, bi lahko razumno označili kot poklicno nesoglasje. V nasprotju s tem se močno nesoglasje glede tega, katero znamko kave zagovarja pilot, v primerjavi s tisto, ki jo ima kopilot, zlahka kategorizira kot nepoklicno nesoglasje v tem posebnem kontekstu.

Seveda, če se nepoklicno nesoglasje zaplete v strokovno nesoglasje, bi nas na koncu lahko zanimalo nepoklicno nesoglasje kot domnevni vir ali iskra strokovnega. Predstavljajte si, da se pilot in kopilot grenko prepirata o tem, katera znamka kave je najboljša, kar se nato na žalost prelevi v pomisleke glede leta (igra beseda!), na primer, ali naj vzleti ali ne.

Drugič, upoštevati moramo razsežnost strokovnega nesoglasja.

Morda pilot in kopilot ali v rahlem nesoglasju glede nadaljevanja letenja. Niso v prepiru in zgolj razmišljajo o prednostih in slabostih vzleta. To ni kaliber ali obseg strokovnega nesoglasja, ki ga običajno obravnavamo tukaj. Stvar je v tem, da je strokovno nesoglasje lahko prehodno in obe strani prisrčno ali vsaj pravočasno dosežeta rešitev. Na splošno so žarišče strokovnih nesoglasij znotraj obsega tista, ki so na videz nerešljiva, obe strani pa ostajata trdno v nesoglasju.

Tretjič, običajno mora biti nekaj resno na vrsti, da te smernice pridejo v poštev.

Odločitev za letenje ali neletenje je nedvomno življenjska ali smrtna odločitev, če je let ogrožen zaradi nevihte ali se šteje, da letalo ni popolnoma pripravljeno na takšno potovanje. To je resen posel. Smernice lahko še vedno uporabimo za manj vplivna strokovna nesoglasja, čeprav je to morda več težav, kot je vredno.

V redu, naša razmišljanja so naslednja:

  • Nesoglasje je predvsem strokovno usmerjeno in ne zaradi nečesa neprofesionalnega
  • Nesoglasje je trajne narave in ni zgolj prehodno ali kako drugače zlahka rešeno
  • Nestrinjanje napoveduje resne posledice in ima običajno močan izid
  • Stranke so sprte in zdijo se nepopravljive

Oglejmo si zdaj podrobneje vsako od mojih predlaganih smernic ali pristopov glede tega, kako se soočiti s takšnimi strokovnimi nesoglasji.

Umetna inteligenca in združeni ljudje rešujejo stvari (prijateljsko ali ne)

Seznam začnem z neposredno možnostjo, da sta AI in človek v zanki sposobna rešiti medsebojno strokovno nesoglasje. Zdi se, da morda primer dveh ljudi, pilota in kopilota, ponazarja tovrstne okoliščine. Nekako sta se odločila, da se vrneta na terminal in gresta vsak svojo pot. Lahko se zgodi, da sta sistem umetne inteligence in človek sposobna najti pristop reševanja, ki je na splošno zadovoljiv za obe strani, in je tako zadeva zadovoljivo zaključena.

Človek privzeto prevlada nad AI

Pri nastavljanju umetne inteligence lahko programiramo pravilo, ki pravi, da mora človek v zanki vedno prevladati, kadar koli se pojavi strokovno nesoglasje. To bi bila izrecno kodirana privzeta vrednost. Morda bi dovolili tudi neko obliko preglasitve, za vsak slučaj, čeprav bo stalno pravilo, da prevlada človek.

AI privzeto prevlada nad človekom

Pri nastavljanju umetne inteligence lahko programiramo pravilo, ki pravi, da mora umetna inteligenca vedno prevladati nad človekom v zanki, kadar koli se pojavi strokovno nesoglasje. To je izrecno kodirana privzeta vrednost. Za vsak slučaj lahko dovolimo tudi neko obliko preglasitve, čeprav bo stalno pravilo, da prevlada AI.

Privzeto prevlada neka druga vnaprej določena fiksna ločljivost

Pri nastavljanju umetne inteligence lahko programiramo pravilo, ki pravi, da bo neka druga vnaprej določena fiksna ločljivost prevladala, kadar koli se pojavi strokovno nesoglasje s človekom v zanki. Človek v zanki privzeto ne prevlada. AI privzeto ne prevlada. Obstaja nekaj drugih vnaprej določenih resolucij. Na primer, morda obstaja met kovanca, ki se bo uporabil za odločitev, katera od obeh strani se šteje za pravo pot. To bi se očitno zdelo precej poljubno; tako bi bil drug primer pristopa, da se začne specializirano pravilo, ki izračuna vrednost na podlagi vnosov obeh strani in doseže rezultat kot izenačenje.

Oseba tretje osebe je vpeta in njihova navedba prevlada nad strankami

Ob strokovnem nesoglasju bi pravilo lahko bilo, da se prikliče tretja oseba, ki je človek, in se vključi v nastavitev, da sprejme odločitev o razrešitvi nesoglasja. AI je programiran tako, da upošteva vse, kar se odloči tretji človek. Človeku, ki je že v sistemu človek v zanki, je bilo vnaprej poučeno, da se mora tudi on, če pride do takšne situacije, prepustiti človeku tretje osebe. Poleg tega lahko verjetno predvidevate, da bo človek v zanki morda vznemirjen zaradi sprejemanja kakršne koli odločitve tretje osebe, če se odločitev ne strinja z držo človeka v zanki.

Umetna inteligenca tretje osebe je vpeta v zanko in njena indikacija prevlada nad strankami

V primeru strokovnega nesoglasja bi pravilo lahko bilo, da se prikliče tretja oseba, ki je drug sistem AI, in se vključi v nastavitev, da sprejme odločitev o razrešitvi nesoglasja. Izvirna umetna inteligenca je programirana tako, da upošteva vse, kar se odloči umetna inteligenca tretje osebe. Človek, ki je že v sistemu človek v zanki, je bil predhodno poučen, da se mora tudi on, če pride do takšne situacije, prepustiti umetni inteligenci tretje osebe. Poleg tega lahko verjetno predvidevate, da bo človek v zanki morda vznemirjen, ker bo sprejel odločitev umetne inteligence tretje osebe, če se odločitev ne strinja z držo človeka v zanki.

Tretji človek nadomesti obstoječega človeka, stvari se nadaljujejo na novo

V primeru strokovnega nesoglasja človeka v zanki zamenja tretja oseba, ki je človek in ki odslej postane človek v zanki. Človek, ki je bil prvotni človek v zanki za nalogo, se ne šteje več za del trenutne naloge. To je odprt vidik glede tega, kaj se sicer dogaja s zdaj nadomeščenim človekom v zanki, vendar pravimo, da zagotovo nimajo več nobene stalne vloge pri delovni nalogi.

Umetna inteligenca tretjih oseb nadomesti obstoječo umetno inteligenco, stvari se nadaljujejo na novo

V primeru strokovnega nesoglasja se umetna inteligenca nadomesti z umetno inteligenco tretje osebe in ta odslej postane umetna inteligenca, ki se uporablja za zadevno delovno nalogo. Umetna inteligenca, ki je bila prvotno uporabljena za nalogo, se ne šteje več za del trenutne naloge. To je odprt vidik glede tega, kaj se sicer zgodi s zdaj nadomeščenim AI, vendar pravimo, da AI zagotovo nima več nobene stalne vloge pri delovni nalogi.

Človek tretje osebe nadomesti obstoječo umetno inteligenco, stvari se nadaljujejo na novo (zdaj človek človeku)

V primeru strokovnega nesoglasja umetno inteligenco nadomesti človek tretje osebe, za katerega ta oseba zdaj postane sodelujoča stranka, ki bo uporabljena za zadevno delovno nalogo. Umetna inteligenca, ki je bila prvotno uporabljena za nalogo, se ne šteje več za del trenutne naloge. To je odprt vidik glede tega, kaj se sicer zgodi s zdaj nadomeščenim AI, vendar pravimo, da AI zagotovo nima več nobene stalne vloge pri delovni nalogi. Skratka, to zdaj postane dvostransko opravilo, ki ga izvaja človek človeku.

AI tretjih oseb nadomesti obstoječega človeka, stvari se nadaljujejo na novo (zdaj AI-to-AI)

V primeru strokovnega nesoglasja se človek v zanki nadomesti z umetno inteligenco tretje osebe in ta umetna inteligenca odslej postane dopolnilo za prejšnjega človeka v zanki. Človek, ki je bil prvotni človek v zanki za nalogo, se ne šteje več za del trenutne naloge. To je odprt vidik glede tega, kaj se sicer dogaja s zdaj nadomeščenim človekom v zanki, vendar pravimo, da zagotovo nimajo več nobene stalne vloge pri delovni nalogi. Skratka, to zdaj postane dvostranski AI-to-AI za opravljanje naloge.

Ostalo

Za obvladovanje strokovnega nesoglasja je mogoče oblikovati druge različice, vendar smo tukaj opisali nekaj ključnih kamnov.

Kako naj se odločimo, kateri od teh pristopov bo pravi za dano situacijo?

Pri taki izbiri se pojavlja veliko različnih vprašanj. Obstajajo tehnološki vidiki. Obstajajo poslovni premisleki. Obstajajo pravni in etični vidiki.

Do neke mere je zato etika umetne inteligence in etična umetna inteligenca tako ključna tema. Navodila etike umetne inteligence nas spodbujajo, da ostanemo pozorni. Tehnologi umetne inteligence se lahko včasih ukvarjajo s tehnologijo, zlasti z optimizacijo visoke tehnologije. Ni nujno, da upoštevajo večje družbene posledice. Imeti miselnost o etiki umetne inteligence in to vključiti v razvoj in uporabo umetne inteligence je bistvenega pomena za ustvarjanje ustrezne umetne inteligence, vključno (morda presenetljivo ali ironično) z oceno, kako podjetja sprejmejo etiko umetne inteligence.

Poleg uporabe etičnih predpisov umetne inteligence na splošno obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Pravzaprav vnaprej opozarjajo, da bomo, če uveljavimo nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z omejevanjem napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti.

Stavim, da si na tem mestu te pomembne razprave želite nekaj ilustrativnih primerov, ki bi lahko predstavili to temo. Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Vidite, kot strokovnjak za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, kaj osvetli glede reševanja nesoglasij med umetno inteligenco in človekom, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Nesoglasje med samovozečimi avtomobili in umetno inteligenco proti človeku

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Upam, da je to zadostno število opozoril, ki bi podlagale to, kar bom povedal.

Pri popolnoma avtonomnih vozilih morda ne bo nobene možnosti za strokovno nesoglasje med človekom in umetno inteligenco zaradi možnosti, da na začetku ni nobenega človeka v zanki. Težnja mnogih današnjih proizvajalcev samovozečih avtomobilov je popolnoma odstraniti človeškega voznika iz naloge vožnje. Vozilo ne bo vsebovalo niti človeku dostopnih upravljalnih elementov za vožnjo. V tem primeru človeški voznik, če je prisoten, ne bo mogel sodelovati pri vožnji, ker nima dostopa do nobenih kontrolnikov za vožnjo.

Pri nekaterih popolnoma avtonomnih vozilih nekatere zasnove še vedno omogočajo, da je človek v zanki, čeprav človeku sploh ni treba biti na voljo ali sodelovati v procesu vožnje. Tako lahko človek sodeluje pri vožnji, če to želi. Vendar se umetna inteligenca v nobenem trenutku ne zanaša na človeka, da bi opravil katero koli od nalog vožnje.

V primeru polavtonomnih vozil obstaja medsebojno razmerje med človeškim voznikom in umetno inteligenco. Človeški voznik lahko v celoti prevzame nadzor nad vožnjo in v bistvu prepreči umetni inteligenci, da bi sodelovala pri vožnji. Če želi človeški voznik znova vključiti umetno inteligenco v vlogo vožnje, lahko to stori, čeprav to včasih prisili človeka, da opusti nadzor vožnje.

Druga oblika polavtonomnega delovanja bi vključevala človeški voznik in umetno inteligenco, ki bi sodelovala v timskem načinu. Umetna inteligenca vozi in človek vozi. Vozita se skupaj. Umetna inteligenca se lahko prikloni človeku. Človek se lahko prikloni AI.

V določenem trenutku lahko sistem vožnje z umetno inteligenco in človeški voznik v zanki dosežeta točko "strokovnega nesoglasja" glede vozniške naloge.

Za ponazoritev, kako je izvajanje nekaterih zgoraj omenjenih pravil obravnave strokovnega nesoglasja lahko zahtevno, razmislite o primeru, ko prikličete tretjo osebo, da vstopi v zadevo in ponudi odločitev za rešitev nerešenega vprašanja.

Recimo, da je proizvajalec avtomobilov ali samovozeče tehnološko podjetje poskrbelo, da imajo oddaljeni človeški operaterji dostop do nadzora vožnje vozil v njihovem voznem parku. Človeški operater sedi v neki oddaljeni pisarni ali podobnem okolju. Prek računalniškega sistema si lahko ogledajo prizor vožnje z dostopom do kamer in drugih senzorskih naprav, ki so naložene na samovozeči avtomobil. Za njih je to skoraj kot igranje spletne video igrice, čeprav imajo seveda okoliščine v resničnem življenju potencialno hude posledice.

Sistem AI in človeški voznik v avtomobilu vozita polavtonomno vozilo po dolgi avtocesti. Kar naenkrat hoče AI zapeljati v jarek. Človeški voznik tega ne želi storiti. Oba se prepirata za krmiljenje vožnje.

Kako se bo to rešilo?

Morda bi lahko že prej uvedli, da vedno zmaga človek. Predpostavimo, da smo se odločili, da tega ne storimo.

Že vnaprej bi lahko določili, da AI vedno zmaga. Predpostavimo, da smo se odločili, da tega ne storimo. Na splošno nismo sprejeli nobenega od teh pravil, razen da smo se odločili, da dovolimo tretji osebi, da posreduje in reši strokovno nesoglasje kakršne koli vsebinske narave.

V tem primeru uporabe se AI in človeški voznik za volanom borita za nadzor vožnje. To je recimo posredovano oddaljenemu človeškemu operaterju (našemu tretjemu človeku). Oddaljeni človeški operater preuči, kaj se dogaja, in se odloči, da se bo odmaknil od jarka, s čimer se zdi, da prepreči, kar je umetna inteligenca poskušala narediti. Hkrati predpostavimo, da oddaljeni človeški operater usmerja v nasproti vozeči promet, česar morda niti umetna inteligenca niti človeški voznik v avtomobilu nista hotela storiti.

Bistvo je, da je način, na katerega je bilo to pravilo implementirano, tak, da lahko človeški operater tretje osebe popolnoma preglasi tako AI kot človeka v zanki. Zagotovo ni gotovo, ali bo to prineslo dober rezultat.

Ta primer bom uporabil, da poudarim nekaj dodatnih vpogledov v te zadeve.

Ne morete narediti nesramne predpostavke, da je samo zato, ker je uveljavljeno eno od teh pravil, izid rešenega nesoglasja nujno zagotovljen dober izid. Morda ne bo. Ni nobenega železnega vedno pravega pravila, ki bi ga lahko izbrali.

Nato nekatera od teh pravil morda ne bodo izvedljiva.

Razmislite o primeru oddaljenega človeškega operaterja, ki posreduje, ko se umetna inteligenca in človeški voznik prepirata zaradi krmiljenja vožnje. Morda bo trajalo veliko sekund, da oddaljeni človeški operater ugotovi, kaj se dogaja. Takrat bi lahko vozilo že končalo v jarku ali pa bi imelo kakšno drugo neugodno posledico. Predpostavimo tudi, da lokacija vozila onemogoča oddaljeni dostop, na primer na mestu, kjer ni omrežne elektronske povezave. Ali pa morda omrežne funkcije vozila v tistem trenutku ne delujejo.

Kot lahko vidite, je pravilo morda na papirju videti čudno, čeprav je uvedba pravila v dejansko uporabo lahko zelo težaven ali zelo naključen pristop. Oglejte si moje kritično poročilo o upravljavcu avtonomnih vozil in samovozečih avtomobilov na daljavo na povezava tukaj.

Rad bi na kratko obravnaval še eno povezano temo, ki jo bom podrobneje obravnaval v prihodnji analizi.

Ena od naraščajočih skrbi glede avtonomnih vozil in samovozečih avtomobilov, ki so polavtonomni, je t.i. Sindrom vročega krompirja.

Tukaj je dogovor.

Sistem vožnje z umetno inteligenco in človek sovozita. Pojavi se huda težava. Umetna inteligenca je bila programirana tako, da opusti nalogo vožnje in stvari preda človeku, ko nastopi hud trenutek. To se zdi morda »smiselno«, ker se zdi, da se sklicujemo na pravilo o človeku kot privzetem »zmagovalcu« v morebitnih strokovnih nesoglasjih.

Vendar pa je umetna inteligenca morda izpuščena zaradi bolj zlobnih ali zahrbtnih namenov. Lahko se zgodi, da proizvajalec avtomobilov ali samovozeče tehnološko podjetje ne želi, da se njihova umetna inteligenca šteje za "krivca", ko pride do prometne nesreče. Da bi se navidezno izognil temu, da bi bil tako pripet, AI nenadoma preda nadzor človeku. Voila, človek je zdaj domnevno popolnoma odgovoren za vozilo.

Zadeva je v tem, da predpostavimo, da umetna inteligenca izvede to predajo, tako da ima recimo še eno sekundo časa, preden pride do zrušitve.

Bi imel človek res kaj časa, da prepreči strmoglavljenje?

Verjetno ne.

Predpostavimo, da umetna inteligenca izvede predajo, ko je ostalo še nekaj milisekund ali nanosekund. Upam si trditi, da ima človek praktično nič možnosti, da bi kar koli naredil, da bi preprečil strmoglavljenje.

Z vidika proizvajalca avtomobilov ali proizvajalca samovozečih avtomobilov se lahko ob takšni prometni nesreči poskušajo obnašati, kot da imajo čiste roke. Avto je vozil človek. AI ni vozil avta. Zdi se, da je edini "logičen" zaključek ta, da mora biti človek kriv in da mora biti AI popolnoma brezhiben.

To je lonec.

O tem bom podrobneje razpravljal v prihodnji kolumni.

zaključek

Pojavila se bodo strokovna nesoglasja.

Težko si je zamisliti kakršno koli kompleksno nalogo, pri kateri nalogo sodelujeta dve strani in pri kateri nikoli ne bi prišlo do kakršnih koli strokovnih nesoglasij. To se zdi kot domišljijska dežela ali vsaj velika redkost.

Danes imamo veliko in veliko primerov poklicnih nesoglasij med ljudmi, za katere se tako ali drugače vsakodnevno rešijo mirno in razumno. Pravzaprav pogosto namerno ustvarjamo situacije, da spodbujamo in razkrivamo strokovna nesoglasja. Lahko trdite, da je to dokaz slavne modrosti, da sta včasih dve glavi boljši kot ena.

Ko bo umetna inteligenca postajala vse bolj razširjena, bomo imeli veliko dvostranskih izvajalcev nalog AI-človeku ali človek-AI, poleg tega pa bo strokovna nesoglasja ki se bo zgodil. Leni pristop je vedno prikloniti se človeku. To morda ni najprimernejši pristop. AI je morda boljša izbira. Ali pa je eno od drugih zgoraj omenjenih pravil morda bolj zdrav pristop.

Obstaja tista modra linija, ki se pogosto ponavlja, da bi morali biti vsi na splošno sposobni strinjati se, da se ne strinjamo, čeprav je treba, ko gre za žico, včasih nesoglasje nedvoumno rešiti, sicer bo obravnavana zadeva vodila v nepopisno nesrečo. Ne moremo pustiti, da nesoglasje lebdi na trti. Čas je lahko bistvenega pomena in življenja so lahko na kocki.

Obstaja jasna zahteva po nekaterih preudarnih sredstvih za reševanje nesoglasij, tudi če ni nujno sprejemljivo, vključno s primeri, ko AI in človek v zanki ne vidita oči v oči ali bajt za bajtom.

Verjamem, da se ne boste strinjali s to povsem sprejemljivo trditvijo.

Vir: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- pilot-in-kopilot-se-nista strinjala-pred-vzletom-in-nenadoma-se-odločila-taksirati-nazaj-na-terminal-in-se-razhajata/