Etika umetne inteligence pravi, da bi bilo treba umetno inteligenco še posebej uporabiti, ko je človeških pristranskosti veliko

Ljudje smo spoznali svoje omejitve.

Morda se spomnite sorodne znane fraze o poznavanju naših omejitev, ki jo je ostro izrekel lik Umazani Harry v filmu iz leta 1973 z naslovom Magnum Force (po besedah ​​igralca Clinta Eastwooda v njegovi nepozabni vlogi inšpektorja Harryja Callahana). Splošno mnenje je, da včasih spregledamo lastne meje in se temu primerno spravimo v vročo vodo. Ne glede na to, ali zaradi ošabnosti, egocentričnosti ali preprosto slepi za lastne zmožnosti, je pravilo, da se zavedamo in izrecno upoštevamo svoje nagnjenosti in pomanjkljivosti, nadvse smiselno in koristno.

Dodajmo modremu nasvetu nov pridih.

Umetna inteligenca (AI) je spoznala svoje omejitve.

Kaj mislim s to različico čaščene fraze?

Izkazalo se je, da je začetno hitenje, da bi sodobno umetno inteligenco uporabili kot obetajočega reševalca svetovnih problemov, postalo umazano in popolnoma zamegljeno zaradi spoznanja, da ima današnja umetna inteligenca nekaj precej resnih omejitev. Zapustili smo vzpodbudne naslove AI za dobro in se vse bolj znajdemo v njem AI za slabo. Vidite, številni sistemi umetne inteligence so bili razviti in opremljeni z vsemi vrstami neprijetnih rasnih in spolnih pristranskosti ter nešteto drugih grozljivih neenakosti.

Za moje obsežno in stalno poročanje o etiki umetne inteligence in etični umetni inteligenci glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Pristranskosti, ki so bile odkrite v teh sistemih umetne inteligence, niso tipa, če bi rekli, »namerno«, ki bi ga pripisali človeškemu vedenju. To omenjam, da poudarim, da današnja umetna inteligenca ni čuteča. Kljub tistim kričečim naslovom, ki nakazujejo drugače, nikjer ni nobene umetne inteligence, ki bi se niti približala razumu. Poleg tega ne vemo, kako spraviti umetno inteligenco v kategorijo čutenja, poleg tega nihče ne more z gotovostjo reči, ali bomo kdaj dosegli čutenje umetne inteligence. Mogoče se bo nekoč zgodilo, morda pa tudi ne.

Torej, moja poanta je, da ne moremo posebej dodeliti namena vrsti umetne inteligence, ki jo trenutno imamo. Kot rečeno, lahko v veliki meri dodelimo namen tistim, ki izdelujejo sisteme AI. Nekateri razvijalci umetne inteligence se ne zavedajo dejstva, da so zasnovali sistem umetne inteligence, ki vsebuje neprijetne in morda nezakonite pristranskosti. Medtem se drugi razvijalci umetne inteligence zavedajo, da vnašajo pristranskosti v svoje sisteme umetne inteligence, pri čemer lahko to počnejo na namenski napačni način.

Kakor koli že, rezultat je še vedno neprimeren in verjetno nezakonit.

V teku so močna prizadevanja za razglasitev načel etike umetne inteligence, ki bodo razsvetlila razvijalce umetne inteligence in zagotovila ustrezne smernice za izogibanje vdelavi pristranskosti v njihove sisteme umetne inteligence. To bo pomagalo na dvojni način. Prvič, tisti, ki izdelujejo AI, ne bodo imeli več pripravljenega izgovora, da preprosto niso vedeli, katerim predpisom je treba slediti. Drugič, tiste, ki se bodo oddaljili od pogojev etične umetne inteligence, bomo lažje ujeli in pokazali, da odvračajo tisto, kar so bili vnaprej opozorjeni, naj storijo in ne storijo.

Vzemimo si trenutek in na kratko razmislimo o nekaterih ključnih načelih etične umetne inteligence, da ponazorimo, o čem bi morali razmišljati ustvarjalci umetne inteligence in se dosledno lotiti s stališča etike umetne inteligence.

Kot so sporočili iz Vatikana v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot lahko neposredno ugibate, je lahko zelo težko poskušati določiti posebnosti, na katerih temeljijo ta načela. Še več, prizadevanje, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je prav tako trd oreh. Na splošno je enostavno nekaj mahati z rokami o tem, kaj so zapovedi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija, ko mora biti kodiranje umetne inteligence prava guma, ki se sreča s cesto.

Načela etike umetne inteligence morajo uporabljati razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo prizadevanja za razvoj umetne inteligence, in celo tisti, ki končno izvajajo in vzdržujejo sisteme umetne inteligence. Vse zainteresirane strani v celotnem življenjskem ciklu razvoja in uporabe umetne inteligence so obravnavane v okviru spoštovanja že vzpostavljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da morajo »samo koderji« ali tisti, ki programirajo umetno inteligenco, upoštevati pojme etike umetne inteligence. Zavedajte se, da je za oblikovanje in uporabo AI potrebna vas. Za kar mora cela vas skrbeti za etiko umetne inteligence.

Kakorkoli že, zdaj, ko sem ugotovil, da lahko umetna inteligenca vsebuje pristranskosti, se lahko vsi strinjamo s tema dvema navideznima dejstvoma:

1. Ljudje imajo lahko številne neprijetne pristranskosti in se lahko ravnajo po njih

2. Umetna inteligenca ima lahko številne neugodne pristranskosti in lahko deluje na podlagi teh pristranskosti

Nekoliko sovražim združevanje ljudi proti umetni inteligenci v tem kontekstu, saj bi to lahko nekako pomenilo, da ima umetna inteligenca enake čuteče sposobnosti kot ljudje. Temu zagotovo ni tako. Malo kasneje v tej razpravi se bom za trenutek vrnil k vse večjim pomislekom glede antropomorfizacije umetne inteligence.

Kaj je slabše, ljudje, ki kažejo neugodne pristranskosti, ali umetna inteligenca, ki to počne?

Upam si trditi, da vprašanje predstavlja eno od teh strogih odločitev. Lahko bi trdili, da je pregovorno manjše od dveh zla. Želeli bi si, da ljudje ne bi utelešali neprijetnih pristranskosti. Nadalje želimo, da tudi če imajo ljudje neprijetne pristranskosti, ne bodo ukrepali v skladu s temi pristranskostmi. Enako bi lahko rekli za AI. Želeli bi si, da umetna inteligenca ne bi vdelala neželenih pristranskosti in da tudi če obstajajo takšne interno kodirane pristranskosti, umetna inteligenca vsaj ne bi ukrepala nanje.

Čeprav ni nujno, da želje vodijo svet (za mojo analizo naraščajočega in motečega videza t.i. AI Izpolnitev želja s strani družbe na splošno, glej povezava tukaj).

V redu, očitno želimo, da ljudje poznajo svoje omejitve. Pomembno je, da prepoznate, kdaj imate neugodne pristranskosti. Enako pomembno je poskušati preprečiti, da bi se te neprijetne pristranskosti vlile v vaša dejanja in odločitve. Današnja podjetja preizkušajo najrazličnejše pristope, da svojim zaposlenim preprečijo, da bi padli v hude pasti nepristranskih predsodkov. Zaposleni so deležni posebnega usposabljanja o tem, kako svoje delo opravljati na etično neoporečen način. Procesi so oblikovani okoli zaposlenih, da jih opozorijo, ko se zdi, da izkazujejo neetične navade. In tako naprej.

Drug način za obvladovanje ljudi in njihovih neugodnih pristranskosti bi bila avtomatizacija dela, ki temelji na ljudeh. Da, preprosto odstranite človeka iz zanke. Ne dovolite, da bi človek opravljal nalogo odločanja, in verjetno ne boste več imeli nobenih dolgotrajnih skrbi glede človekovega odnosa do kakršnih koli neželenih pristranskosti. Človek ni vpleten, zato se zdi, da je problem morebitnih človeških pristranskosti rešen.

To omenjam, ker smo priča postopnemu in velikemu premiku v smeri uporabe umetne inteligence na način odločanja z algoritmi (ADM). Če lahko človeškega delavca nadomestite z umetno inteligenco, obstaja velika verjetnost, da se bo pojavilo veliko koristi. Kot že omenjeno, se ne bi več obremenjevali s človeškimi pristranskostmi tega človeškega delavca (tistega, ki tega dela ne opravlja več). Možnosti so, da bo AI na splošno cenejši v primerjavi z dolgoročnim časovnim obdobjem. Znebite se vseh drugih raznovrstnih težav, ki so delno povezane s človeškimi delavci. itd.

Zdi se, da se vse bolj uveljavlja predlog: Ko se skušate odločiti, kam najbolje postaviti umetno inteligenco, najprej poglejte nastavitve, ki že povzročajo neugodne človeške pristranskosti vaših delavcev in za katere te pristranskosti nelojalno zmanjšujejo ali kako drugače pretirano otežujejo določene naloge odločanja.

Bistvo je, da bi se zdelo preudarno iztržiti največ za svoj denar v smislu vlaganja v umetno inteligenco tako, da bi se neposredno usmerili v zelo izpostavljene naloge odločanja ljudi, ki jih je težko nadzorovati z vidika infuzije neugodnih pristranskosti. Odstranite človeške delavce v tej vlogi. Zamenjajte jih z AI. Predpostavka je, da umetna inteligenca ne bi imela tako neprijetnih pristranskosti. Zato lahko vzamete svojo torto in jo tudi pojeste, in sicer opravite naloge odločanja in to brez etičnega in pravnega spektra neprijetnih pristranskosti.

Če to naštejete, bi ROI (donosnost naložbe) verjetno pomenilo, da bo sprejetje umetne inteligence preprosta izbira.

Tako se to običajno odvija.

Oglejte si celotno podjetje in poskusite prepoznati naloge odločanja, ki vplivajo na stranke. Od teh nalog, katere naloge bodo najverjetneje neustrezno spremenjene, če delavci utelešajo neprimerne pristranskosti? Če ste že poskušali obvladati te pristranskosti, morda pustite stvari stati tako, kot so. Po drugi strani pa, če se pristranskosti vedno znova pojavljajo in je prizadevanje, da bi jih odpravili, težko, razmislite o tem, da bi v to vlogo vključili ustrezno umetno inteligenco. Ne zadržujte delavcev v mešanici, saj lahko preglasijo AI ali potisnejo AI naravnost nazaj v brezno neugodnih pristranskosti. Prepričajte se tudi, da lahko umetna inteligenca strokovno opravi nalogo in da ste v zadostni meri zajeli vidike odločanja, potrebne za opravljanje naloge.

Izperite in ponovite.

Zavedam se, da je to videti kot enostavna ideja, čeprav se zavedam, da obstaja veliko načinov, na katere lahko zamenjava človeških delavcev z umetno inteligenco hitro zaplete. Številna podjetja so bila pripravljena sprejeti takšne ukrepe in niso premišljeno razmislila, kako to storiti. Posledično so pogosto naredili veliko hujšo zmešnjavo, kot so jo imeli na začetku.

Želim pojasniti in poudariti, da AI ni zdravilo.

Ko smo že pri tem, obstaja ena velika težava glede čistosti navideznega izločanja odločevalcev, ki so pristranski do ljudi, z domnevno nepristransko umetno inteligenco. Težava je v tem, da morda en niz neprijetnih pristranskosti zgolj nadomeščate z drugim. Glede na prejšnjo navedbo lahko AI vsebuje neugodne pristranskosti in lahko deluje na te pristranskosti. Nesramna predpostavka, da zamenjava pristranskih ljudi za nepristransko umetno inteligenco ni vse, kar se zdi.

Skratka, tukaj je dogovor, če gledamo na zadevo strogo iz pristranskih dejavnikov:

  • Umetna inteligenca nima neprijetnih pristranskosti in zato je ADM na osnovi umetne inteligence priročen za uvajanje
  • Umetna inteligenca ima enake neugodne pristranskosti kot ljudje, ki jih zamenjamo, zato je ADM, ki temelji na umetni inteligenci, zaskrbljujoč
  • Umetna inteligenca uvaja nove neugodne pristranskosti, ki presegajo tiste ljudi, ki so jih zamenjali, in bo verjetno ustrezno poslabšala stvari
  • Umetna inteligenca se sprva zdi v redu, nato pa postopoma zaniha v neprijetne pristranskosti
  • Ostalo

Na kratko lahko razpakiramo te možnosti.

Prva je idealizirana različica tega, kar bi se lahko zgodilo. AI nima neprijetnih pristranskosti. AI postavite na svoje mesto in delo opravi odlično. Dobro zate! Seveda bi lahko upali, da ste na nek spreten način rešili tudi premik človeških delavcev zaradi vključitve umetne inteligence.

V drugem primeru vzpostavite umetno inteligenco in ugotovite, da umetna inteligenca kaže enake neprijetne pristranskosti, kot so jih imeli človeški delavci. Kako je to mogoče? Pogost način, da se ujamete v to past, je uporaba strojnega učenja (ML) in globokega učenja (DL), ki temelji na zbranih podatkih o tem, kako so ljudje v vlogi prej sprejemali svoje odločitve.

Dovolite mi trenutek, da pojasnim.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to pelje. Če so ljudje, ki to delo opravljajo leta in leta, vključevali neugodne pristranskosti, je verjetnost, da podatki to odražajo na subtilen, a pomemben način. Računalniško ujemanje vzorcev strojnega ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. V modeliranju samo po sebi ni videti zdravega razuma ali drugih čustvenih vidikov.

Poleg tega se razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivnostna matematika bi lahko otežila iskanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to težje, kot se morda zdi. Obstaja velika verjetnost, da bodo tudi z razmeroma obsežnim testiranjem pristranskosti še vedno vgrajene v modele ujemanja vzorcev ML/DL.

Vse povedano, morda se boste vrnili na začetek. Iste neugodne pristranskosti ljudi se zdaj računsko odražajo v sistemu umetne inteligence. Niste izkoreninili predsodkov.

Še huje je, da je manj verjetno, da boste spoznali, da ima AI pristranskost. V primeru ljudi ste morda običajno pozorni, da imajo ljudje neprijetne pristranskosti. To je osnovno pričakovanje. Uporaba umetne inteligence lahko voditelje zaziba v prepričanje, da je avtomatizacija popolnoma odstranila kakršno koli človeško pristranskost. Tako se nastavljajo, da so se ustrelili v nogo. Znebili so se ljudi z na videz znanimi neugodnimi pristranskostmi in jih nadomestila umetna inteligenca, za katero se je mislilo, da nima takih pristranskosti, vendar so zdaj dali v uporabo umetno inteligenco, polno enakih pristranskosti, za katere je že znano, da obstajajo.

To lahko resnično postavi stvari navzkriž. Morda ste odstranili druge varovalne ograje, ki se uporabljajo pri človeških delavcih in so bile ustanovljene za odkrivanje in preprečevanje pojava teh že pričakovanih človeških pristranskosti. AI ima zdaj proste roke. Nič ni na mestu, da bi ga ujeli, preden ukrepate. Umetna inteligenca bi vas nato lahko začela voditi po grobi poti velikega kopičenja pristranskih dejanj.

In ste v nerodni in morda odgovorni drži, da ste nekoč vedeli za pristranskosti in ste zdaj dovolili, da te pristranskosti povzročijo opustošenje. Morda je ena stvar, da se še nikoli niste srečali s takšnimi neprijetnimi pristranskostmi, potem pa jih nenadoma kot naključje sproži AI. To lahko poskusite opravičiti z "kdo bi uganil" vrsto distraktorja (morda ne zelo prepričljivo). Toda, da ste zdaj vzpostavili AI, ki izvaja enaka neprijetna pristranska dejanja kot prej, vaši izgovori postajajo vse tanjši in labši.

Zasuk v zvezi s tem pomeni, da umetna inteligenca kaže neugodne pristranskosti, ki jih prej ni bilo opaziti, ko so ljudje opravljali nalogo. Lahko bi rekli, da je to morda težje preprečiti, saj je sestavljeno iz "novih" pristranskosti, ki jih podjetje prej ni iskalo. Na koncu pa vam izgovori morda ne bodo prinesli veliko olajšanja. Če je sistem umetne inteligence posegel na neetično in nezakonito ozemlje, je vaša gos morda kuhana.

Še en vidik, ki ga morate imeti v mislih, je, da se umetna inteligenca lahko začne zelo dobro, nato pa se malo poglobi v nepristranskost. To je še posebej verjetno, če se strojno ali globoko učenje stalno uporablja, da se AI posodablja. Ne glede na to, ali ML/DL deluje v realnem času ali občasno posodablja, je treba biti pozoren na to, ali AI morda zaužije podatke, ki zdaj vsebujejo pristranskosti in ki prej niso bili prisotni.

Za voditelje, ki mislijo, da dobijo brezplačno kosilo z mahanjem čarobne paličice, da bi pristranske človeške delavce nadomestili z umetno inteligenco, jih čaka zelo nesramno prebujenje. Oglejte si mojo razpravo o pomenu opolnomočenja voditeljev z zapovedmi etike umetne inteligence na povezava tukaj.

Na tej točki te razprave bi stavil, da si želite nekaj primerov iz resničnega sveta, ki bi lahko prikazali uganko zamenjave (ali ne) človeških neugodnih pristranskosti z neugodnimi pristranskostmi, ki temeljijo na umetni inteligenci.

Vesel sem, da si vprašal.

Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Kot strokovnjaka za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, kaj pojasni glede neugodnih pristranskosti v umetni inteligenci, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, ki jih AI vozi povsem sam in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Na ravni 5 še ni pravega samovozečega avtomobila, za katerega še ne vemo, ali bo to mogoče doseči in koliko časa bo trajalo, da bi prišli do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in umetna inteligenca z neprimernimi pristranskostmi

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Verjamem, da to zagotavlja dovolj litanij opozoril, na podlagi katerih bom povedal.

Zdaj smo pripravljeni, da se globoko poglobimo v samovozeče avtomobile in možnosti etične umetne inteligence, kar vključuje raziskovanje umetne inteligence in neugodnih pristranskosti.

Uporabimo lahko preprost primer. Samovozeči avto, ki temelji na umetni inteligenci, je v teku na ulicah vaše soseske in zdi se, da vozi varno. Sprva ste vsakič, ko ste uspeli ujeti pogled na samovozeči avto, posvetili posebno pozornost. Avtonomno vozilo je izstopalo s svojo stojalo elektronskih senzorjev, ki so vključevali video kamere, radarske enote, naprave LIDAR in podobno. Po mnogih tednih samovozečega avtomobila, ki kroži po vaši skupnosti, ga zdaj komaj opazite. Kar se vas tiče, je to zgolj še en avto na že tako prometnih javnih cestah.

Da ne bi mislili, da je nemogoče ali neverjetno spoznati samovozeče avtomobile, sem pogosto pisal o tem, kako so se kraji, ki so v okviru preizkusov samovozečih avtomobilov, postopoma navadili videti polepšana vozila, glej mojo analizo na tukaj povezava. Številni domačini so se sčasoma preusmerili iz zanosenega zuljenja z razpršenimi usti in zdaj oddajali ekspanzivno zehanje dolgčasa, da bi bili priča tem vijugastim samovozečim avtomobilom.

Verjetno je zdaj glavni razlog, da bi lahko opazili avtonomna vozila, posledica razdraženosti in razdraženosti. Sistemi za vožnjo z umetno inteligenco, ki so običajni v knjigi, zagotavljajo, da avtomobili spoštujejo vse omejitve hitrosti in cestna pravila. Za naporne človeške voznike v njihovih tradicionalnih avtomobilih, ki jih poganja človek, se občasno razjezite, ko obtičate za samovozečimi avtomobili na osnovi umetne inteligence, ki spoštujejo zakone.

To je nekaj, na kar se bomo morda morali vsi navaditi, upravičeno ali ne.

Nazaj k naši zgodbi.

Izkazalo se je, da se začneta pojavljati dve neprimerni pomisleki glede sicer neškodljivih in na splošno dobrodošlih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, in sicer:

a. Kjer umetna inteligenca gostuje v samovozečih avtomobilih za pobiranje prevozov, je postala skrb vzbujajoča v skupnosti na splošno

b. Naraščajoče vprašanje je tudi, kako AI obravnava čakajoče pešce, ki nimajo prednosti

Sprva je umetna inteligenca romala po samovozečih avtomobilih po celem mestu. Vsak, ki je želel zahtevati vožnjo v samovozečem avtomobilu, je imel v bistvu enake možnosti, da ga pozdravi. Postopoma je umetna inteligenca začela predvsem zadržati samovozeče avtomobile, ki so gostovali v samo enem delu mesta. Ta del je bil večji zaslužek in sistem AI je bil programiran tako, da poskuša povečati prihodke kot del uporabe v skupnosti.

Za člane skupnosti v revnih delih mesta je manj verjetno, da bi se lahko zapeljali s samovozečim avtomobilom. To je bilo zato, ker so bili samovozeči avtomobili bolj oddaljeni in so gostovali v delu z višjimi prihodki. Ko je prispela zahteva iz oddaljenega dela mesta, bi vsaka zahteva iz bližje lokacije, ki bi bila verjetno v »cenjenem« delu mesta, dobila višjo prednost. Sčasoma je bila razpoložljivost samovozečega avtomobila na katerem koli mestu, razen v bogatejšem delu mesta, skoraj nemogoča, kar je zelo razburljivo za tiste, ki so živeli na teh območjih, ki so zdaj stradani z viri.

Lahko bi trdili, da je umetna inteligenca v veliki meri pristala na obliki proxy diskriminacije (ki jo pogosto imenujemo tudi posredna diskriminacija). AI ni bil programiran, da bi se izognil tem revnejšim soseskam. Namesto tega se je tega »naučil« z uporabo ML/DL.

Stvar je v tem, da so bili vozniki, ki si delijo vožnjo, znani po tem, da delajo isto stvar, čeprav ne nujno izključno zaradi zornega kota ustvarjanja denarja. Nekaj ​​voznikov, ki si delijo vožnjo, je bilo nepristransko pristransko glede pobiranja kolesarjev v določenih delih mesta. To je bil nekoliko znan pojav in mesto je vzpostavilo nadzorni pristop, da bi ulovilo človeške voznike, ki to počnejo. Človeški vozniki bi lahko imeli težave zaradi izvajanja neprijetnih izbirnih praks.

Domnevalo se je, da umetna inteligenca nikoli ne bo padla v isto vrsto živega peska. Za spremljanje, kam se vozijo samovozeči avtomobili, ki temeljijo na umetni inteligenci, ni bil vzpostavljen noben specializiran nadzor. Šele potem, ko so se člani skupnosti začeli pritoževati, so mestni voditelji ugotovili, kaj se dogaja. Za več o teh vrstah mestnih vprašanj, ki jih bodo predstavila avtonomna vozila in samovozeči avtomobili, si oglejte moj prispevek na tukaj povezava in ki opisuje študijo, ki jo vodi Harvard, ki sem jo soavtor na to temo.

Ta primer gostujočih vidikov samovozečih avtomobilov, ki temeljijo na umetni inteligenci, ponazarja prejšnje namige, da lahko pride do situacij, v katerih so ljudje z nepristranskimi pristranskostmi, za katere je vzpostavljen nadzor, in da je AI, ki nadomešča te človeške voznike, prepuščena prost. Na žalost se lahko AI postopoma zaplete v sorodne pristranskosti in to stori brez zadostnih zaščitnih ograj.

Drugi primer vključuje AI, ki določa, ali naj se ustavi zaradi čakanja na pešce, ki nimajo prednosti za prečkanje ulice.

Nedvomno ste vozili in naleteli na pešce, ki so čakali, da prečkajo ulico, pa niso imeli prednosti za to. To je pomenilo, da ste imeli diskrecijsko pravico, ali se ustavite in jih pustite prečkati. Lahko nadaljujete, ne da bi jim pustili prečkati, in še vedno v celoti v skladu z zakonitimi pravili vožnje.

Študije o tem, kako se človeški vozniki odločijo, da se ustavijo ali ne ustavijo zaradi takšnih pešcev, kažejo, da se včasih človeški vozniki odločijo na podlagi nepristranskosti. Človeški voznik bi lahko pogledal pešca in se odločil, da se ne bo ustavil, čeprav bi se ustavil, če bi imel pešec drugačen videz, na primer glede na raso ali spol. To sem pregledal na povezava tukaj.

Predstavljajte si, da so samovozeči avtomobili, ki temeljijo na umetni inteligenci, programirani za reševanje vprašanja, ali se ustaviti ali ne ustaviti za pešce, ki nimajo prednosti. Evo, kako so se razvijalci AI odločili programirati to nalogo. Podatke so zbirali iz mestnih video kamer, ki so nameščene po vsem mestu. Podatki prikazujejo človeške voznike, ki se ustavijo za pešce, ki nimajo prednosti in voznike, ki se ne ustavijo. Vse je zbrano v velikem naboru podatkov.

Z uporabo strojnega učenja in globokega učenja so podatki računalniško modelirani. Sistem vožnje z umetno inteligenco nato uporablja ta model, da se odloči, kdaj se ustaviti ali ne. Na splošno je ideja, da ne glede na to, iz česar je sestavljen lokalni običaj, bo AI tako usmerjala samovozeči avto.

Na presenečenje mestnih voditeljev in prebivalcev se je AI očitno odločal, ali bo ustavil ali ne, glede na videz pešca, vključno z njihovo raso in spolom. Senzorji samovozečega avtomobila bi skenirali čakajočega pešca, vnesli te podatke v model ML/DL, model pa bi AI oddal, ali naj se ustavi ali nadaljuje. Na žalost je mesto že imelo veliko pristranskosti človeških voznikov v zvezi s tem in AI je zdaj posnemal isto.

Dobra novica je, da to odpira vprašanje, za katerega skoraj nihče prej ni vedel, da obstaja. Slaba novica je bila, da je AI prevzel večino krivde, ker so jo ujeli pri tem početju. Ta primer ponazarja, da lahko sistem umetne inteligence zgolj podvaja že obstoječe neugodne pristranskosti ljudi.

zaključek

Obstaja veliko načinov, kako se poskušati izogniti oblikovanju umetne inteligence, ki ima bodisi zunaj vrat neugodne pristranskosti bodisi sčasoma izbere pristranskosti. Eden od pristopov vključuje zagotavljanje, da se razvijalci umetne inteligence zavedajo tega dogajanja in jih tako držijo na trnih, da programirajo umetno inteligenco, da prepreči zadevo. Druga možnost je, da se AI samonadzoruje za neetično vedenje (glejte mojo razpravo na povezava tukaj) in/ali imeti drug del umetne inteligence, ki nadzoruje druge sisteme umetne inteligence za morebitno neetično vedenje (to sem obravnaval na povezava tukaj).

Če povzamem, zavedati se moramo, da imajo ljudje lahko neprijetne pristranskosti in da morajo nekako poznati svoje omejitve. Podobno ima lahko umetna inteligenca neprijetne pristranskosti in nekako moramo poznati njihove omejitve.

Za tiste med vami, ki vneto sprejemate etiko umetne inteligence, bi rad zdaj končal z drugo znano stavko, ki jo gotovo vsi že poznajo. Namreč, prosimo vas, da še naprej uporabljate in delite pomen etične umetne inteligence. In s tem bi predrzno rekel: "Daj, polepšaj mi dan."

Vir: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/