Etična umetna inteligenca ambiciozno upa, da se bo AI naučila etičnega vedenja sama, kot je primer z umetno inteligenco v avtonomnih samovozečih avtomobilih

Aristotel je slavno izjavil, da vzgoja uma brez vzgoje srca ni nobena vzgoja.

To pronicljivo pripombo lahko razlagate tako, da namigujete, da je učenje o etiki in moralnem vedenju zelo pomembno za človeštvo. V klasični razpravi o naravi proti negovanju se je treba vprašati, koliko naših etičnih navad je instinktivno domorodnih, koliko pa se naučimo v naših življenjskih dneh. Malčki so pozorni na soljudi in domnevno pridobivajo svoje etične temelje na podlagi tega, kar vidijo in slišijo. Enako lahko rečemo za najstnike. Za odprte odrasle se bodo tudi ti še naprej prilagajali in napredovali v svojem etičnem razmišljanju kot rezultat doživljanja vsakdanjega sveta.

Seveda je primerno tudi izrecno poučevanje nekoga o etiki. Ljudje se morajo naučiti o etičnih načinih z obiskovanjem predavanj na to temo ali morda z obiskom dogodkov in praks, ki jih zanimajo. Etične vrednote je mogoče jasno identificirati in deliti kot sredstvo za pomoč drugim pri oblikovanju lastne strukture etike. Poleg tega je lahko etika subtilno skrita v zgodbah ali drugih načinih poučevanja, ki na koncu nosijo sporočilo o tem, iz česa je sestavljeno etično vedenje.

Tako se zdi, da ljudje prežemajo etiko.

Kaj pa umetna inteligenca (AI)?

Zavedam se, da se takšno vprašanje morda zdi nenavadno. Vsekakor pričakujemo, da bodo ljudje vključili etiko in hodili skozi življenje z nekim videzom moralnega kodeksa. To je preprosto in očitno dejstvo. Po drugi strani se zdi, da stroj ali računalnik ne sodita v isti referenčni okvir. Vaša čustvena reakcija je lahko, da je namišljeno ali nenavadno, da AI smatrate za utelešenje etike in moralnih kodeksov.

Najboljše, kar bi lahko naredili glede umetne inteligence, je, da jo oblikujemo tako, da ne odstopa od etičnega vedenja. Razvijalci umetne inteligence in tisti, ki uporabljajo umetno inteligenco, so odgovorni za zagotovitev, da je umetna inteligenca, kot je bila zasnovana in ko se izvaja, že v skladu z etičnimi predpisi. Tako rekoč pred vrati bi morala biti umetna inteligenca že nedotaknjena in pripravljena za delo kot popolnoma etično ustrezna naprava.

Zagotovo bi imeli prav, če mislite, da bi morali biti sistemi umetne inteligence dejansko izdelani tako, da se že popolnoma ujemajo z etičnimi osnovami. Družba je bila zelo navdušena, ko je bil prvič izdan najnovejši val sistemov AI in se je zdelo, da dokazuje, da smo v dobi AI za dobro. AI bi pomagala pri reševanju številnih najzahtevnejših svetovnih problemov. Napredek v tehnologiji je bil izkoriščen za dopolnitev človeških zmogljivosti s kognitivnimi zmogljivostmi, čeprav mi dovolite, da poudarim, da še nimamo čuteče umetne inteligence in ne vemo, ali bo razumna umetna inteligenca dosežena.

Težava z nenavadno naglico, da bi umetno inteligenco spravili na svet, je postopoma razkrila grdo spodnjo stran umetne inteligence, znano kot AI za slabo. Veliko je bilo naslovov o sistemih AI, ki uporabljajo algoritemsko odločanje (ADM), ki je polno pristranskosti in neenakosti. Poleg tega velik del sodobne umetne inteligence trpi zaradi pomanjkanja preglednosti, je ponavadi nerazložljiv v smislu razlage računalniških odločitev, pogosto kaže pomanjkanje pravičnosti in je nekaterim dovolil, da preusmerijo svojo človeško odgovornost s kazanjem na AI.

V svojih spisih sem obširno pokrival etično umetno inteligenco in etiko umetne inteligence, vključno z povezava tukaj in povezava tukaj, samo da navedem nekaj.

Kako lahko obstaja AI za slabo če vzamemo kot naveden konstrukt, da je treba umetno inteligenco oblikovati od začetka, da bi se izognili neetičnim dejanjem?

Odgovor je večplasten.

Prvič, mnogi razvijalci umetne inteligence in podjetja, ki se ukvarjajo z umetno inteligenco, sami ne vedo, kako pomembno je oblikovati svojo umetno inteligenco, da ostane znotraj etičnih meja. Koncept sploh ni na njihovem radarju. Privlačnost hitrega zaslužka povzroči, da nekateri nadaljujejo s kakršnimi koli divjimi pojmi umetne inteligence, ki jih želijo namerno ustvariti. Ni treba ugotoviti nobenih etičnih stvari. Samo zgradite umetno inteligenco in jo začnite.

Drugič, obstajajo tisti, ki izdelujejo umetno inteligenco, ki polepšajo odkrito zavedanje o etičnih posledicah, vendar odkrito podcenjujejo ali nekoliko ignorirajo premisleke o etičnih AI. Ena pogosta perspektiva je tehnološka klasična mantra o hitrem neuspehu in pogosto neuspehu. Samo ponavljajte, dokler se stvari, upajmo, ne uredijo ustrezno. Možnosti za kakršno koli sistematično in premišljeno vključitev etike umetne inteligence v ta hitra prizadevanja umetne inteligence so na žalost majhne. Razpravljam o potrebi po opolnomočenju vodstva pri etični umetni inteligenci na povezava tukaj.

Tretjič, obstaja veliko nejasnosti o tem, katere etične ograje je treba upoštevati pri oblikovanju umetne inteligence. Seveda, dandanes obstaja veliko etičnih smernic AI, glejte moj prispevek na povezava tukaj, čeprav je te priročne teoretične predpise težko nujno spremeniti v posebnosti za dani sistem umetne inteligence, ki se gradi. Nakazal sem, da bomo počasi videli pojav orodij in metodologij za gradnjo umetne inteligence, ki vključujejo etične prakse kodiranja umetne inteligence, ki bodo pomagale zapolniti vrzel med abstraktnimi vidiki in pregovornimi vidiki kavčuka in ceste.

Četrtič, v skladu s poudarkom tukaj raziskujemo prizadeti primer umetne inteligence, ki tudi če je sprva sestavljen znotraj etičnih meja, nato med uporabo vijuga onkraj predpostavljenih etično kodiranih parametrov.

To moramo razpakirati.

Velik del današnje umetne inteligence uporablja strojno učenje (ML) in poglobljeno učenje (DL). To so tehnike in tehnologije ujemanja računalniških vzorcev. Na splošno je ideja, da skupaj zberete veliko ustreznih podatkov za vse, kar naj bi AI lahko naredil, te podatke vnesete v izbrano računalniško ujemanje vzorcev, ujemanje vzorcev pa matematično poskuša najti uporabne vzorce. Upoštevajte, da ta umetna inteligenca nima občutka (kar spet ne obstaja). Prav tako ne gre za zdravorazumsko razmišljanje. Vse je matematika in izračuni.

Lahko se zgodi, da so podatki, vneseni v ML/DL, že prepojeni s pristranskostjo in neenakostjo. V tem primeru je verjetnost, da bo ujemanje računskega vzorca zgolj posnemalo enake nagnjenosti. Če podate podatke, ki dajejo prednost eni rasi pred drugo ali dajejo prednost enemu spolu pred drugim, obstaja velika verjetnost, da se bo ujemanje vzorca zataknilo kot odkriti vzorec.

Velika težava pri tovrstnem zapahovanju je, da bomo morda težko ugotovili, da vzorci temeljijo na tem vidiku podatkov. Trnasta in zapletena matematika lahko naredi nastajanje tako najdenih vzorcev precej problematično. Tudi testiranje AI ne bo nujno razkrilo teh tendenc, odvisno od obsega in globine uporabljenih testov.

Torej, predpostavimo, da ste zgradili sistem umetne inteligence in opravili domačo nalogo, tako da ste se najprej poskušali izogniti uporabi podatkov, ki so že imeli pristranskost. Ko sta bila izvedena strojno učenje in poglobljeno učenje, ste nato preizkusili rezultate, da bi ugotovili, ali so se nekako pojavile kakršne koli pristranskosti ali neenakosti. Predpostavimo, da ne morete najti nobenih takšnih neprijetnih nagnjenj.

Vse povedano, zdaj je dana zelena luč za nadaljevanje in uporabo AI. Ljudje bodo začeli uporabljati umetno inteligenco in verjetno domnevali, da je etično ustrezna. To mislijo tudi razvijalci. Podjetje, ki izvaja AI, meni tako. Vsi gremo stran.

Evo, kaj se lahko zgodi.

Namig o pristranskosti, ki ni bila ugotovljena v prvotnih podatkih in ki ni bila ujeta med testiranjem AI, je verjetno aktivirana. Morda se to zgodi le redko. Morda verjamete, da dokler je redko, je vse v redu. Dvomim pa, da so tisti, ki so občutljivi na omenjeno pristranskost, pripravljeni videti stvari tako. Upam si trditi, da se bodo sistem umetne inteligence in tisti, ki so ga oblikovali, soočili z posledicami, bodisi na sodnih sodiščih bodisi na odprtem sodišču družbenega mnenja.

Druga različica je pregovorna ideja vzeti centimeter in zgrabiti miljo. Namig je lahko sprva majhen. Med uporabo AI je bila umetna inteligenca morda zasnovana tako, da se spreminja, ko se stvari odvijajo. Tovrstno "učenje" ali "samoučenje" je lahko zelo koristno. Namesto da bi od razvijalcev človeške umetne inteligence zahtevali, da nenehno spreminjajo in prilagajajo sistem AI, je umetna inteligenca zgrajena tako, da to počne sama. Brez zamud, brez drage delovne sile itd.

Slaba stran te priročne samoprilagoditve je, da se lahko zaznavanje v obsegu uporabe umetne inteligence dvigne na vse večje in večje. Medtem ko je bila pristranskost morda v tesnem majhnem kotu, ima zdaj prostor za razširitev. AI nima nobenega videza, da je to "narobe" in zgolj računsko razširi nekaj, kar se zdi, da deluje.

Če vam zaradi tega lasje stojijo na glavi, se boste morali za naslednjo varianto usesti.

Recimo, da pristranskost ni obstajala že od samega začetka in da imamo utemeljeno prepričanje, da je AI popolnoma brez pristranskosti. Imeli smo srečo ali pa smo sistematično poskrbeli, da v podatkih ni bilo nobenih pristranskosti in da se nobena ni pojavila prek ujemanja računalniških vzorcev. Kljub temu vzdihu olajšanja se lahko AI med uporabo prilagaja. Pandorina vrata se odprejo in umetna inteligenca se odloči, da bo računalniško gravitirala proti pristranskostim, ki jih najdemo med tem, kar počne AI.

Novougotovljena pristranskost je zajeta v AI in nihče ni posebej modrejši, da se je to zgodilo. Joj, ustvarili smo pošast, pravega Frankensteina.

Kako je mogoče ta pojav preprečiti ali vsaj označiti?

Eden od pristopov, ki postaja vse bolj priljubljen, je vgradnja komponente za zbiranje etike v umetno inteligenco. AI je zasnovan tako, da vključuje etične elemente umetne inteligence. Ti elementi nato opazujejo ali spremljajo preostali del AI, medtem ko se AI sčasoma prilagaja. Ko se zdi, da je umetna inteligenca presegla programirane etične predpise, poskuša etična umetna inteligenca vpeljati te prilagoditve ali opozori razvijalce, da je šlo nekaj narobe.

Lahko poskusite programirati to nadzorno zmogljivost etične umetne inteligence in upate, da bo prevladala, medtem ko je umetna inteligenca v uporabi.

Še en nekoliko sporen vidik bi bila uporaba strojnega učenja in globokega učenja za usposabljanje etičnih vidikov umetne inteligence v sistemu AI.

Kaj praviš?

Da, morda neortodoksen koncept je, da namesto človeški programer, ki neposredno kodira niz etičnih predpisov AI, je AI oblikovana tako, da se jih namesto tega poskuša "učiti". Spomnimo se, da sem na kratko omenil, da je uporaba ML/DL običajno odvisna od podajanja podatkov v algoritme in pride do ujemanja računskega vzorca. Vprašanje za milijon dolarjev je, ali lahko uporabimo isti mehanizem za vnašanje etičnih vrednot v sistem umetne inteligence.

Predvidevam, da bi to lahko primerjali z mojo razpravo ob uvodu o tem, kako se ljudje zavedajo etičnih načel, čeprav prosim, ne antropomorfizirajte današnje umetne inteligence kot primerljivo s človeškim razmišljanjem (ni, in to opombo bom kmalu ponovil). AI je mogoče "prirojeno" programirati z etičnimi predpisi AI. Ali pa bi se AI lahko "naučila" etičnih predpisov AI. Seveda lahko narediš oboje, kar sem obravnaval drugje, glej povezava tukaj.

Vzemite si trenutek in premislite o navidez osupljivem konceptu, da bi se AI lahko »naučila« etike in zato verjetno spoštuje etično vedenje.

Ti raziskovalci uporabljajo primer sistema umetne inteligence, ki ugotovi želeno temperaturo v hiši, da ponazorijo, kako to lahko deluje: »Najprej je le teden dni 'opazoval' vedenje ljudi v različnih gospodinjstvih in sklepal o njihovih željah. Nato je s senzorjem za zaznavanje gibanja ugotovil, ali je kdo doma. Ko je bila hiša prazna, je pametni termostat vstopil v način visokega varčevanja z energijo; ko so bili ljudje doma, je termostat prilagodil temperaturo, da ustreza njihovim željam. Ta termostat očitno izpolnjuje dve zahtevi etičnega bota, čeprav je zelo preprosta. Ocenjuje preference ljudi in jih vsiljuje krmiljenju sistema ogrevanja in hlajenja. Lahko se vprašamo, kaj ima to opraviti z družbenimi moralnimi vrednotami. Ta termostat omogoča ljudem z različnimi vrednostmi, da imajo želene temperaturne nastavitve. Stanovalcem doma ob prihodu in odhodu ni treba vsak dan ponastaviti termostata. Ta preprost etični bot prav tako zmanjšuje celoten energetski odtis skupnosti« (po prispevku Amitaija Etzionija in Orena Etzionija z naslovom »Etika s pomočjo AI« v zvezku o Etika in informacijska tehnologija).

Preden se podrobneje poglobim v zavoje AI, ki se »uči« etičnega vedenja, bi rad povedal nekaj več o statusu AI.

AI je lahko sestavljen iz teh možnih stanj:

1. Današnja navadna umetna inteligenca brez čutenja

2. Čuteča umetna inteligenca človeške kakovosti (tega še nimamo)

3. Čuteča umetna inteligenca, ki je super inteligentna (razteg čez #2)

Osredotočil se bom na obstoječe stanje, ki je nečuteča, navadna stara umetna inteligenca. Veliko tega, kar lahko preberete o etični umetni inteligenci, včasih pokriva čutečo umetno inteligenco in je zato zelo špekulativno. Pravim, da je špekulativno, ker oslu nihče ne more pripeti repa o tem, kaj bo čuteča umetna inteligenca. Še dlje, ki presega področje človeške kakovosti, čuteča umetna inteligenca, je zelo razburjena super-inteligentna umetna inteligenca. Obstaja veliko znanstvenofantastičnih zgodb in pomislekov o tem, kako bi se lahko ti okusi umetne inteligence odločili zasužnjiti človeštvo ali pa nas morda samo vse izbrisali. To je znano kot eksistencialno tveganje AI. Včasih je dilema predstavljena tudi kot katastrofalno tveganje AI.

Nekateri trdijo, da bi lahko bili v redu, dokler bomo umetno inteligenco ohranili za nečutečo, navadno umetno inteligenco, ki jo imamo danes. Predpostavimo, da ne moremo doseči čuteče AI. Predstavljajte si, da ne glede na to, kako močno se trudimo izdelati čutečo umetno inteligenco, nam to ne uspe. Predpostavimo tudi zaradi razprave, da čuteča AI ne nastane zaradi nekega skrivnostnega spontanega procesa.

Ali nismo potem varni, da bo ta manjšega kalibra AI, ki je zamišljena edina možna vrsta AI, v uporabi?

Ni res.

Verjetno se bodo pojavila enaka splošna vprašanja. Ne trdim, da AI "razmišlja" svojo pot, da nas želi uničiti. Ne, navadna nečuteča umetna inteligenca je zgolj postavljena na položaje moči, ki nas zapeljejo v samouničenje. Na primer, nečutečo umetno inteligenco damo v orožje za množično uničevanje. Ta avtonomna orožja ne morejo razmišljati. Hkrati pa ljudje niso v celoti v zanki. Posledica tega je, da AI kot oblika avtonomne avtomatizacije nehote povzroči katastrofalne rezultate, bodisi zaradi človeškega ukaza, bodisi zaradi hrošča ali napake, bodisi z vgrajenim zlobnim početjem ali s samoprilagoditvami, ki vodijo zadeve navzdol. grda pot itd.

Trdim, da etični problem umetne inteligence obstaja za vse tri države, ki jih določa AI, in sicer da imamo etične težave z umetno inteligenco z nečutečo, navadno staro umetno inteligenco in s čutečo umetno inteligenco, ki je bodisi zgolj človeška raven bodisi razširjena AI, ki doseže priznana raven superinteligence.

Glede na to streznivo izjavo lahko zagotovo razpravljamo o obsegu in težavah, povezanih z etičnimi problemi na vsaki od ustreznih ravni AI. Običajno stališče je, da je etična težava umetne inteligence manj nepremostljiva na nečuteči umetni inteligenci, strožja na ravni umetne inteligence, ki je enaka čutečemu človeku, in resnična glava na stopnji čuteče superinteligentne umetne inteligence.

Boljša kot je umetna inteligenca, hujši je etični problem umetne inteligence.

Morda je to nedotakljiv zakon narave.

Če se vrnemo k pozornosti na današnjo umetno inteligenco, je poskus, da bi se umetna inteligenca »naučila« etičnih vedenj s pomočjo sodobnega strojnega učenja in globokega učenja, polna skrbi in zapletenih težav. Recimo, da AI ne uspe pridobiti želenih etičnih predpisov? Kako bomo zagotovo vedeli, da je pri tem omahnilo? Ali bodo tudi drugi deli sistema AI potencialno preglasili zbrane etične konstrukcije? K temu dodajte še, da če se AI sproti prilagaja, bi prilagoditve lahko zmanjšale etične vidike ali jih nehote popolnoma preplavile.

Da bi bile stvari še hujše, bi lahko "učenje" vodilo do tega, da AI pristane na resnično neetičnem vedenju. Medtem ko smo mislili, da ravnamo pravilno, ko smo umetno inteligenco spodbujali k etičnosti, se je izkazalo, da je AI namesto tega zdrsnila v ujemanje vzorcev na neetičnih vidikih. Če govorimo o streljanju lastne noge, se lahko zgodi.

Stavim, da si na tej točki te razprave želite nekaj dodatnih primerov iz resničnega sveta, ki bi lahko poudarili, kako bi lahko AI "učenje" etike veljalo za današnjo umetno inteligenco (razen okusne dražilke primera termostata).

Vesel sem, da si vprašal.

Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Kot strokovnjaka za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, razsvetljuje kaj o tem, da se lahko umetna inteligenca "uči" etičnih predpisov umetne inteligence, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, ki jih AI vozi povsem sam in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Na ravni 5 še ni pravega samovozečega avtomobila, za katerega še ne vemo, ali bo to mogoče doseči in koliko časa bo trajalo, da bi prišli do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in etično cepljenje z umetno inteligenco

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Verjamem, da to zagotavlja dovolj litanij opozoril, na podlagi katerih bom povedal.

Zdaj smo pripravljeni, da se poglobimo v samovozeče avtomobile in možnosti etične umetne inteligence, kar pomeni, da lahko dvignemo obrvi, da lahko umetno inteligenco pripravimo do tega, da se sama »nauči« o etičnem vedenju.

Uporabimo lahko preprost primer. Samovozeči avto, ki temelji na umetni inteligenci, je v teku na ulicah vaše soseske in zdi se, da vozi varno. Sprva ste vsakič, ko ste uspeli ujeti pogled na samovozeči avto, posvetili posebno pozornost. Avtonomno vozilo je izstopalo s svojo stojalo elektronskih senzorjev, ki so vključevali video kamere, radarske enote, naprave LIDAR in podobno. Po mnogih tednih samovozečega avtomobila, ki kroži po vaši skupnosti, ga zdaj komaj opazite. Kar se vas tiče, je to zgolj še en avto na že tako prometnih javnih cestah.

Da ne bi mislili, da je nemogoče ali neverjetno spoznati samovozeče avtomobile, sem pogosto pisal o tem, kako so se kraji, ki so v okviru preizkusov samovozečih avtomobilov, postopoma navadili videti polepšana vozila, glej mojo analizo na tukaj povezava. Številni domačini so se sčasoma preusmerili iz zanosenega zuljenja z razpršenimi usti in zdaj oddajali ekspanzivno zehanje dolgčasa, da bi bili priča tem vijugastim samovozečim avtomobilom.

Verjetno je zdaj glavni razlog, da bi lahko opazili avtonomna vozila, posledica razdraženosti in razdraženosti. Sistemi za vožnjo z umetno inteligenco, ki so običajni v knjigi, zagotavljajo, da avtomobili spoštujejo vse omejitve hitrosti in cestna pravila. Za naporne človeške voznike v njihovih tradicionalnih avtomobilih, ki jih poganja človek, se občasno razjezite, ko obtičate za samovozečimi avtomobili na osnovi umetne inteligence, ki spoštujejo zakone.

To je nekaj, na kar se bomo morda morali vsi navaditi, upravičeno ali ne.

Nazaj k naši zgodbi. Nekega dne predpostavimo, da se v vašem mestu ali mestu vozi samovozeči avto in naleti na situacijo, ko pešec čaka, da prečka cesto. Predpostavimo, da pešec sam po sebi nima prednosti. Avto, ki ga poganja človek, bi lahko šel mimo pešca in bi bil pri tem povsem zakonit. Prav tako lahko sistem vožnje z umetno inteligenco zakonito pelje mimo čakajočega pešca.

Odločitev, ali se bo ustavil in spustil pešca čez cesto, je povsem diskrecijsko za voznika, ne glede na to, ali gre za človeka ali vozni sistem z umetno inteligenco.

Prepričan sem, da ste se že neštetokrat srečali s takšno situacijo. Morda se vam mudi, zato se ne ustavite, da bi pešca prečkali. Ob drugi priložnosti imate dovolj časa, da pridete do cilja, zato se odločite, da se ustavite in dovolite čakajoči osebi, da hodi čez cesto. Vaše razpoloženje in posebne okoliščine narekujejo, kaj boste naredili.

Nič v tem scenariju se ne zdi nenavadno ali moteče.

Preden preučim stran stvari z umetno inteligenco, vas bo morda zanimalo, da je bil ta poseben vidik diskrecije, ki omogoča pešcu, da prečka ulico, natančno preučen. Raziskovalci so ugotovili, da je včasih izbira voznika očitno odvisna od rasnih ali spolnih pristranskosti. Človeški voznik bi lahko ocenil čakajočega pešca in se odločil, da bo osebi dovolil prečkanje, kot je navidezno glede na prirojene pristranskosti voznika. Ali se voznik sploh zaveda, da to počnejo, je stvar stalne raziskave. Oglejte si moj prispevek na tukaj povezava.

Postavil sem izhodišče za naše raziskovanje, kaj bi lahko sistem za vožnjo z umetno inteligenco naredil v situaciji na prehodu za pešce.

Konvencionalno programiranje umetne inteligence lahko pomeni, da se razvijalci umetne inteligence odločijo, da se sistem vožnje z umetno inteligenco vedno ustavi in ​​pusti pešca prečkati. Zdi se, da je to etično pravilno ali civilno. Samovozeči avto se umakne čakajočemu človeku, ki želi prečkati ulico.

Upam si trditi, da če bi bili potnik v samovozečem avtomobilu in bi se umetna inteligenca vedno ustavila za vse pešce, ki čakajo po diskreciji, bi se lahko zmešali. Vaš hiter izlet v trgovino z živili lahko traja večkrat dlje. Ne pozabite tudi, da ne mislimo na pešce, ki imajo pobožno zakonsko pravico do prečkanja, saj bi ti primeri verjetno že imeli programirano AI, da vedno dovoli. Osredotočamo se le na diskrecijske okoliščine.

Ta izjava, da se vedno ustavlja, da diskrecijske pešce pusti prečkati ulico, ima več slabosti.

Tisti, ki izdelujejo in uporabljajo samovozeče avtomobile na osnovi umetne inteligence, želijo, da se ljudje vozijo v njih. Ideja je, da bi lahko s samovozečimi avtomobili zmanjšali število letnih prometnih nesreč, ki trenutno povzročijo približno 40,000 letnih smrtnih žrtev in 2.5 milijona poškodovanih samo v Združenih državah, glejte mojo zbirko statistike na tukaj povezava. Poleg tega spoštovanega družbenega cilja si proizvajalci avtomobilov in samovozečih tehnologij seveda upajo zaslužiti tudi s svojimi stvaritvami umetne inteligence.

To omenjam, ker se ljudje morda odločijo, da se ne bodo vozili v samovozečih avtomobilih, če sistem vožnje z umetno inteligenco počne stvari, ki po nepotrebnem na koncu odlašajo potovanja. Vsaka vsakdanja oseba bi menila, da bi bila z izbiro človeškega voznika potovanje hitrejše, zato bi lahko izbira samovozečega avtomobila z umetno inteligenco za potovanje uvrščena zelo nizko na seznam njihovih izbir. To bi posledično pomenilo, da ne bi imeli želenega zmanjšanja števila prometnih nesreč in da bi proizvajalci potencialno ugotovili, da je njihov izdelek nedonosen.

Glede na ta niz argumentov bi morda pomislili, da se AI nikoli ne bi smela ustaviti, ko pride do diskrecijskega primera pešca, ki želi prečkati ulico. Samo programirajte sistem vožnje z umetno inteligenco, da naredi vse, kar je strogo zakonito. Če ni zakonske zahteve po prepuščanju pešca, potem čakajočemu pešcu ni sreče. Morda bi se morala oseba odpraviti do prehoda, ki dovoljuje pravno podlago, da AI ustavi samovozeči avto.

Si lahko predstavljate ogorčenje glede tega?

Ljudje v vašem mestu ali mestu postopoma odkrijejo, da samovozeči avtomobili z umetno inteligenco nikoli ne bodo dovolili prehoda pešca po lastni presoji. Ta prekleto razdražljiva AI! Kot da bi umetna inteligenca s svojim nosom tresla ljudi. Nevzgojen drek, ki je del neustrezne avtomatike. Za povrh si predstavljajte, da obstajajo dokumentirane okoliščine, v katerih pešci obupno potrebujejo prehod in AI se sploh ne bi ustavil.

Medtem so se človeški vozniki voljno ustavljali, da bi tistim "obupnikom" omogočili varno prečkanje ceste.

Zaradi tega ogorčenja samovozeči avtomobili z umetno inteligenco niso več dobrodošli na ulicah in stranskih cestah v vašem kraju. Dovoljenja, ki so jih izdali mestni voditelji, se odvzamejo. Spraviti nehvaležne divje z naših cest je glasen vpit.

V redu, zdi se, da smo med skalo in nakovaljo. AI ne bi smel vedno pustiti diskrecijskega pešca prečkati (ne ustaviti se vedno). Umetna inteligenca ne bi smela vedno preprečiti diskrecijskega pešca pri prehodu (ne premikajte vedno mimo). Kaj storiti?

Očiten odgovor bi bil programirati umetno inteligenco za diskrecijsko delovanje.

Prosim vas, da razmislite o ADM (algoritemskem odločanju), ki bi to moralo vsebovati. Ali bo umetna inteligenca poskušala zaznati naravo pešca in uporabiti ugotovljene značilnosti kot osnovo za odločitev, ali naj ustavi samovozeči avtomobil ali ne? Morda je način izbire nekdo starejši. Toda ali je ta starostna diskriminacija v nastajanju? In tako naprej.

Morda je sistem vožnje z umetno inteligenco programiran tako, da se ustavi podnevi in ​​se nikoli ne ustavi ponoči. Logika je verjetno ta, da se za voznike v samovozečem avtomobilu domneva, da je varnejše, da se avtonomno vozilo ustavi podnevi, ne pa ob bolj nestrpnih večernih urah.

To se morda sliši smiselno. Del problema bodo tudi pričakovanja pešcev. Tukaj mislim. Pešci vidijo, da se samovozeči avtomobili z umetno inteligenco ustavljajo za diskrecijske prehode, ki se zgodijo podnevi. Pešci ne vedo, po katerih kriterijih se AI odloči ustaviti. Nekateri pešci domnevajo, da se bo AI vedno ustavila (ne zavedajoč se, da je dnevna svetloba v primerjavi z nočnim časom pravi odločilni dejavnik). Posledično bodo tisti pešci, ki verjamejo, da se bo samovozeči avto vedno ustavil, izkoristili priložnost in začeli prečkati, ko se sistem vožnje z umetno inteligenco sploh ne namerava ustaviti (kar bi se AI verjetno ustavil, če pešec vstopa na ulico, čeprav bi to lahko bilo zapleteno in fizika bi lahko preprečila, da bi umetna inteligenca ustavila samovozeči avtomobil, ne dovolj časa, da bi se izognili trku navidez "zablodenega" pešca).

Predpostavimo, da razvijalci umetne inteligence in podjetja, ki sestavljajo in postavljajo samovozeče avtomobile v vašem mestu, niso prepričani, kako bi umetno inteligenco pri tej zadevi pospešili.

Odločijo se, da bodo umetno inteligenco "usposobili" za podatke, zbrane iz celotnega območja. Izkazalo se je, da obstaja veliko mestnih kamer, ki so posnele prihode in odhode avtomobilov po mestu. Ti podatki prikazujejo številne primere pešcev, ki želijo prečkati ulico na diskrecijski način. Vsi podatki se vnesejo v sistem strojnega učenja in poglobljenega učenja, da se izpelje, kaj se v tej jurisdikciji šteje za običajno.

Ali usposabljamo umetno inteligenco, da naredi tisto, kar kažejo lokalne etične navade?

Z drugimi besedami, če bi se v določenem mestu lokalna kultura bolj nagibala k ustavljanju in prepuščanju diskrecijskih pešcev, kar je razvidno iz dejanj človeka voznika, bi ML/DL potencialno računalniško izbral ta vzorec. Umetna inteligenca bi se nato usposobila za to. Na drugi skrajnosti, če se človeški vozniki le redko ustavljajo, bi AI potencialno pridobila to »lekcijo« iz računalniške analize podatkov. Umetna inteligenca bo naredila tako kot ljudje.

Trdi se, da se etično vedenje ljudi zajame v podatkih in da bo AI te iste etične predpise prežela z računalniško analizo. Etik bi to na splošno opisal kot komunitaristični pristop k etiki. Skupne vrednote skupnosti se odražajo v prizadevanjih skupnosti na splošno.

To se morda zdi kot nora rešitev.

Žal je veliko pasti.

Eden od morda očitnih težav je, da človeški vozniki morda že izvajajo neko obliko pristranskosti pri odločitvi, da se ustavijo ali ne ustavi (kot je bilo omenjeno prej). Umetna inteligenca bo nato kopija teh pristranskosti. Ali želimo, da je tako?

Razmislite o drugem problemu. Recimo, da človeški vozniki ne sprejemajo zlahka, kako delujejo samovozeči avtomobili z umetno inteligenco. Samo zato, ker so bili človeški vozniki recimo pripravljeni ustaviti, to morda ne velja enako za samovozeče avtomobile. Lahko se zgodi, da so vozniki ljudi razburjeni zaradi samovozečih avtomobilov z umetno inteligenco, ki se kar naprej ustavljajo zaradi diskrecijskih pešcev, čeprav se enako dogaja z rokami človeških voznikov, vendar se zdi, da to ne moti človeških voznikov.

Poleg tega, da ste moteči, lahko pričarate tudi možnost, da človeški vozniki nehote zaprejo samovozeče avtomobile. Če človeški voznik ni pričakoval, da se bo samovozeči avto ustavil zaradi pešca, in če je človeški avtomobil neposredno za samovozečim avtomobilom, lahko pride do hude neusklajenosti pričakovanj. Sistem vožnje z umetno inteligenco ustavi samovozeči avto. Človeški voznik tega dejanja ni pričakoval. Človeški voznik trči v samovozeči avto. Sledijo poškodbe in morda tudi smrtni primeri.

Namenoma sem opozoril na možnosti za človeško škodo.

Pešec, ki prečka ulico, se lahko na hiter pogled zdi nepomembno vprašanje. Zdi se, da se nihče ne more poškodovati, ne glede na to, katero metodo se AI ustavi ali ne ustavi. narobe! Obstaja možnost, da bo pešec povozil. Obstaja možnost, da se avto, ki ga poganja človek, zaleti v samovozeči avto. Voznik in potniki osebnega avtomobila se lahko poškodujejo. Vozniki v samovozečem avtomobilu se lahko poškodujejo. Zlahka se predvidevajo dodatne permutacije možne človeške škode.

zaključek

Ko že govorimo o človeški škodi, vam bom dal nekaj drugega, da se boste razburili ob tej uganki etične umetne inteligence.

Novica je poročala, da je moški zapeljal avtomobil v križišče in je imel za to zeleno luč. Drugi osebni avtomobil se je odločil za vožnjo v rdečo luč v križišču in je nezakonito in nevarno zapeljal v križišče ter grozil, da bo udaril v sodno vozilo.

Voznik je novinarjem povedal, da se je moral odločiti med udarcem ali pa bi lahko zavil avto, da bi se izognil udarcu, vendar so bili v bližini pešci in bi lahko zavijanje ogrozilo te ljudi. kaj bi naredil? Lahko se odločite, da vas zadene ta grozeči avto in morda živite, da pripovedujete zgodbo. Lahko pa se poskusite izogniti udarcu, a hkrati morda povoziti nedolžne pešce.

Velik del naše vsakodnevne vožnje vključuje takšne etično ogromne in takojšnje odločitve. O tem sem dolgo razpravljal, skupaj s povezovanjem teh odločitev o vožnji na življenje ali smrt s slavnim ali nekaterim recimo zloglasnim problemom vozička, glejte mojo razlago na povezava tukaj.

V tem scenariju zamenjajte človeškega voznika z voznim sistemom AI.

Kaj želite, da AI naredi?

To je zmedeno vprašanje.

Eden od pristopov je programiranje umetne inteligence tako, da odločno izvaja povsem naravnost vožnje, pri čemer torej niti računsko ne upošteva drugih možnosti, kot je odmik od verjetne nesreče. Pričakoval bi, da bodo vozniki v samovozečih avtomobilih razburjeni, ko bodo ugotovili, da umetna inteligenca ni bila zasnovana za nič drugega kot za prevzem udarca. Pričakujete lahko tožbe in razburjenje.

Drug pristop bi bil poskusiti programirati umetno inteligenco, da preuči različne možnosti. Kdo pa lahko ustanovi ADM, ki odloča, v katero smer bo šel sistem vožnje z umetno inteligenco? Zdi se, da je dovoljenje razvijalcem umetne inteligence, da sami sprejemajo tako tehtne odločitve, polno številnih skrbi.

Lahko poskusite dovoliti, da se AI "uči" iz podatkov o vožnji ljudi, ki jih zbirajo vsakodnevne prometne situacije. To je podobno dilemi o prehodu za pešce in prej predlagani ideji o uporabi zbranih podatkov, da bi umetna inteligenca zbrala ne glede na lokalne etične navade. Glede tega obstaja veliko opozoril, na primer, ali so odkriti vzorci ML/DL primerni ali ne itd.

Prav tako sem vnaprej opozoril, da obstaja možnost, da AI izbere morda neetično vedenje, odvisno od vpletenih etičnih navad. Recimo, da je umetna inteligenca nekako pristala na računalniškem vzorcu, da vedno cilja na pešce, kadar koli drug avto grozi, da bo udaril v samovozeči avto.

Vau, pazite se pešci, vi boste že pripravljene tarče.

Čas je, da za zdaj zaključimo razpravo in to storimo z vzpodbudno zadnjo mislijo.

Morda se zavedate, da je Isaac Asimov leta 1950 predlagal svoje »Tri zakone robotike« in še danes smo navdušeni nad temi razglašenimi pravili. Čeprav se zdi, da se pravila zlahka držijo, na primer, da sistem umetne inteligence ali robot ne sme škodovati človeku in ne dovoli, da bi človek poškodoval, obstaja veliko ključnih odtenkov, zaradi katerih je to zapleteno in včasih nevzdržno, glejte mojo analizo pri povezava tukaj.

Vsekakor pa je tu še nekaj, po čemer je Asimov tudi znan, čeprav manj: "Nikoli ne dovolite, da bi vaš čut za moralo oviral početje, kar je prav."

Za etično umetno inteligenco, za katero vsi upamo, da jo bomo razvili, se moramo zavedati, da prežeta etika umetne inteligence morda ni to, kar smo pričakovali, in da bo morala umetna inteligenca nekako še vedno narediti, kar je prav. Asimov je to dobro povedal. Zdelo se je, da je Aristotel že dolgo prej razmišljal o podobnih občutkih.

Vir: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- primer-z-ai-v-avtonomnih-samovozečih-avtih/