Etika umetne inteligence in zakon o umetni inteligenci se premikata k standardom, ki izrecno opredeljujejo in obvladujejo pristranskosti umetne inteligence

Ste že kdaj igrali XNUMX card pick up?

To ni igra, ki bi se je običajno prostovoljno lotili. Evo zakaj. Nekdo ti ponudi, da je to domnevno zabaven šport in če zagrizeš v sladko vabo, vrže cel kup igralnih kart v zrak in na hitro na tla. Oseba se vam nato predrzno nasmehne in vam reče, da poberete karte. To je celotna igra.

Šaljivec!

V zvezi s tem vam moram zastaviti eno premišljeno vprašanje.

Recimo, da je ena od kart zdrsnila pod bližnji kavč. Ko bi končali s pobiranjem vseh kart, bi vedeli, da ena manjka, ker bi jih bilo v vaši roki samo enainpetdeset.

Vprašanje je, ali lahko ugotovite, katera kartica je manjkala?

Prepričan sem, da bi takoj rekli, da bi zlahka ugotovili, katera karta ni bila v vaših rokah. Vse, kar morate storiti, je spraviti krov v red. Veste, da je standardni komplet sestavljen iz štirih barv in da so znotraj vsake barve karte oštevilčene od ena do deset in nato v Jacka, Queen in Kinga.

To veste, ker standardni komplet igralnih kart temelji na standardu.

Vau, ta izjava se morda zdi kot ena tistih povsem očitnih trditev. No, ja, seveda, standardni igralni komplet temelji na standardu. To vemo vsi. Moje mnenje je, da se lahko s standardom zanesemo na standard, ko je to potrebno. Poleg tega, da lahko ugotovite, katera karta manjka v krovu, lahko tudi brez težav igrate na milijone dobro znanih iger s kartami z drugimi ljudmi. Ko nekomu povemo pravila igre, lahko neposredno igra, ker že popolnoma ve, iz česa je sestavljen komplet. Ni vam treba razlagati, da ima komplet štiri barve in različno oštevilčene karte. Oni že vedo, da je tako.

Kam grem s tem?

Poskušam vas popeljati po poti, ki je bistveno sredstvo za napredek na področju umetne inteligence in še posebej na področju etike umetne inteligence in etične umetne inteligence. Vidite, poskušati moramo pripraviti široko razširjene in vse dogovorjene standarde o etiki umetne inteligence. Če nam bo to uspelo, bo to povečalo enostavnost sprejemanja etične umetne inteligence in očitno bo cilj izboljšati sisteme umetne inteligence, ki se na trg vedno znova vržejo na trg (kot neoštevilčen in neurejen komplet nadomestnih kart). Za moje stalno in obsežno pokrivanje etike umetne inteligence, etične umetne inteligence in prava o umetni inteligenci glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

En poseben segment ali del etike umetne inteligence, ki je bil deležen velike medijske pozornosti, je umetna inteligenca, ki kaže nenaklonjene pristranskosti in neenakosti. Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Čez trenutek bom z vami delil nekaj splošnih načel, na katerih temelji etika umetne inteligence. Tu in tam je veliko tovrstnih seznamov. Lahko bi rekli, da še ni enotnega seznama univerzalne privlačnosti in soglasja. To je žalostna novica. Dobra novica je, da so vsaj na voljo seznami etike AI in so ponavadi precej podobni. Vse skupaj nakazuje, da z nekakšno obliko utemeljene konvergence iščemo pot do splošne skupnosti tega, iz česar je sestavljena etika umetne inteligence.

To omenjam, da bi zagotovil osnovo za svojo razpravo, ki se bo osredotočila na določen segment ali del širšega področja etike umetne inteligence, in sicer, kot je bilo že omenjeno, poseben element pristranskosti umetne inteligence. Tudi razlog, da to temo delim z vami, je, da nas dokument, ki ga je izdal Nacionalni inštitut za standarde in tehnologijo (NIST), skuša pripraviti do tega, da se premaknemo proti standardu, ki označuje pristranskosti AI. Dokument je naslovljen Proti standardu za prepoznavanje in obvladovanje pristranskosti v umetni inteligenci avtorji Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt in Patrick Hall, izdalo pa ga je Ministrstvo za trgovino ZDA, NIST Posebna publikacija 1270, marca 2022.

Razpakirali bomo to priročno in spodbudno prizadevanje, da bi ugotovili, kaj mislimo s pristranskostmi AI. Star pregovor pravi, da ne moreš upravljati s tistim, česar ne moreš izmeriti. Če imate standard, ki določa različne pristranskosti umetne inteligence, lahko začnete meriti in upravljati nadlogo pristranskosti umetne inteligence.

Najprej na kratko pokrijmo nekaj splošnih etičnih predpisov umetne inteligence, da ponazorimo, kaj bi moralo biti ključnega pomena za vsakogar, ki ustvarja, uporablja ali uporablja AI.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da se "samo koderji" ali tisti, ki programirajo umetno inteligenco, upoštevajo pojme etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

V ozadju mnogih teh ključnih etičnih zapovedi umetne inteligence je zahrbtna narava pristranskosti umetne inteligence.

Tako kot pri kompletu kart bi bilo zagotovo odlično, če bi lahko nekako združili pristranskosti AI v nabor "oblek" ali kategorij. Dokument NIST dejansko ponuja predlagano združevanje.

Predlagane so tri glavne kategorije:

1) Sistemske pristranskosti

2) Statistične in računalniške pristranskosti

3) Človeške pristranskosti

Vsekakor je treba razmisliti o tem, ali se vse pristranskosti umetne inteligence dobro ujemajo z eno od teh treh kategorij. Zagotovo lahko trdite, da nekatere pristranskosti AI sodijo v eno, dve ali vse tri kategorije hkrati. Poleg tega lahko trdite, da si zasluži omembo več kategorij, na primer četrta, peta, šesta ali več skupin skupin.

Upam, da to mislite, ker moramo vse vključiti v pomoč pri oblikovanju teh standardov. Če ste razburjeni nad načinom, kako so se ti standardi najprej oblikovali, vas pozivam, da to energijo usmerite v pomoč nam ostalim pri ustvarjanju teh nastajajočih standardov tako robustnih in popolnih, kot jih je mogoče vklesati.

Za zdaj si lahko pobliže ogledamo predlagane tri kategorije in vidimo, s kakšno kombinacijo smo imeli do zdaj opravka (da, še naprej bom uporabljal analogijo s kompletom igralnih kart, pri tem v celotnem besedilu lahko stavite svoj najnižji dolar na to ne tako skrito temo).

Kaj je mišljeno s sklicevanjem na sistemske pristranskosti?

Takole piše v dokumentu NIST: »Sistemske pristranskosti so posledica postopkov in praks določenih institucij, ki delujejo na načine, zaradi katerih imajo določene družbene skupine prednost ali prednost, druge pa prikrajšane ali razvrednotene. Ni nujno, da je to posledica kakršnih koli zavestnih predsodkov ali diskriminacije, temveč tega, da večina sledi obstoječim pravilom ali normam. Najpogostejša primera sta institucionalni rasizem in seksizem« (upoštevajte, da je to le kratek odlomek in bralce spodbujamo, da si ogledajo popolnejšo razlago).

Umetna inteligenca se vključi v mešanico sistemskih pristranskosti z zagotavljanjem sredstev za posredovanje in uporabo teh pristranskosti v aplikacijah, ki temeljijo na umetni inteligenci. Kadar koli uporabljate del programske opreme, ki vsebuje AI, kolikor veste, lahko vsebuje množico pristranskosti, ki so že vtkane v sistem prek podjetij in industrijskih praks, ki so privedle do izdelave AI. Glede na študijo NIST: "Te pristranskosti so prisotne v nizih podatkov, ki se uporabljajo v umetni inteligenci, in institucionalnih normah, praksah in procesih v celotnem življenjskem ciklu umetne inteligence ter v širši kulturi in družbi."

Nato razmislite o nizu pristranskosti, ki so označene kot statistične in računalniške pristranskosti.

Dokument NIST navaja tole: »Statistični in računski pristranskosti izhajajo iz napak, ki nastanejo, ko vzorec ni reprezentativen za populacijo. Te pristranskosti izhajajo iz sistematičnih v nasprotju z naključnimi napakami in se lahko pojavijo brez predsodkov, pristranskosti ali diskriminatornega namena. V sistemih umetne inteligence so te pristranskosti prisotne v naborih podatkov in algoritemskih procesih, ki se uporabljajo pri razvoju aplikacij umetne inteligence, in pogosto nastanejo, ko se algoritmi učijo na eni vrsti podatkov in ne morejo ekstrapolirati izven teh podatkov.«

Ta vrsta statistične in računalniške pristranskosti je pogosto vkuhana v sistem AI, ki uporablja strojno učenje (ML) in globoko učenje (DL). Če izpostavimo zajetno zadevo sodobnega ML/DL, je potrebna sorodna stranska tangenta o tem, kaj je AI in kaj je ML/DL.

Prepričajmo se, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli super inteligentno AI, je možno, da bi bila taka AI na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne AI kot možnosti glej pokritost tukaj).

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način, enako kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se morda zdi, da so pogovorne zmožnosti podobne človeškim zmožnostim, vendar je v resnici računalniška in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje in globoko učenje, ki izkoriščata računalniško ujemanje vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz nagnjenj, podobnih človeškim. Medtem pa danes ni nobene umetne inteligence, ki bi imela videz zdrave pameti, in tudi ne kognitivnega čudesa robustnega človeškega razmišljanja.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

To nas neposredno pripelje do tretje kategorije niza treh skupin NIST, zlasti vloge človeških pristranskosti pri pojavu pristranskosti AI. Tukaj je navedeno v dokumentu NIST: »Človeške pristranskosti odražajo sistematične napake v človeški misli, ki temeljijo na omejenem številu hevrističnih načel in napovedovanju vrednosti za enostavnejše operacije presojanja. Te pristranskosti so pogosto implicitne in se običajno nanašajo na to, kako posameznik ali skupina zaznava informacije (kot je avtomatiziran izhod umetne inteligence), da sprejme odločitev ali dopolni manjkajoče ali neznane informacije. Te pristranskosti so vseprisotne v institucionalnih, skupinskih in individualnih procesih odločanja v celotnem življenjskem ciklu umetne inteligence in pri uporabi aplikacij umetne inteligence, ko so enkrat nameščene.«

Zdaj ste dobili hitri uvod v tri kategorije.

Z vami bi rad delil nekaj dodatne hrane za razmislek, kot je izraženo v dokumentu NIST. Tabela v njihovi pripovedi ponuja uporaben povzetek ključnih vprašanj in premislekov, ki so podlaga za vsakega od treh nizov pristranskosti umetne inteligence. Tukaj jih navajam zaradi lažjega sklicevanja in poučevanja.

#1: Sistemske pristranskosti

  • Kdo se šteje in kdo ne?

— Težave z latentnimi spremenljivkami

— Premajhna zastopanost marginaliziranih skupin

— Avtomatizacija neenakosti

— Nezadostna zastopanost pri določanju funkcije koristnosti

— Postopki, ki dajejo prednost večini/manjšini

— Kulturna pristranskost v funkciji cilja (najboljše za posameznike proti najboljšemu za skupino)

  • Kako vemo, kaj je prav?

— Krepitev neenakosti (skupine so bolj prizadete z večjo uporabo umetne inteligence)

— Bolj negativen vpliv na predvidevanje policije

— Splošno sprejetje skupne vožnje/samovozečih avtomobilov itd. lahko spremeni politike, ki vplivajo na prebivalstvo na podlagi uporabe

#2: Statistične in računalniške pristranskosti

  • Kdo se šteje in kdo ne?

— Pristranskost vzorčenja in izbire

— Uporaba proxy spremenljivk, ker jih je lažje meriti

— Pristranskost avtomatizacije

— Likertova lestvica (od kategorične do ordinalne do kardinalne)

— Nelinearno proti linearnemu

— Ekološka zmota

— Zmanjšanje norme L1 proti L2

— Splošne težave pri kvantificiranju kontekstualnih pojavov

  • Kako vemo, kaj je prav?

— Pomanjkanje ustrezne navzkrižne validacije

— Pristranskost preživetja

— Težave s pravičnostjo

#3: Človeške pristranskosti

  • Kdo se šteje in kdo ne?

— Pristranskost opazovanja (učinek ulične luči)

— Pristranskost glede razpoložljivosti (sidranje)

— Zmota McNamara

— Skupinsko razmišljanje vodi do ozkih izbir

— Rašomonski učinek vodi v subjektivno zagovorništvo

— Težave pri kvantificiranju ciljev lahko privedejo do zmote McNamare

  • Kako vemo, kaj je prav?

— Pristranskost potrditve

— Pristranskost avtomatizacije

Na tej točki te tehtne razprave bi stavil, da si želite nekaj ilustrativnih primerov, ki bi lahko prikazali tri kategorije pristranskosti AI. Obstaja poseben in zagotovo priljubljen nabor primerov, ki so mi pri srcu. Vidite, v moji vlogi strokovnjaka za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj identificiram realistične primere, ki prikazujejo dileme etike umetne inteligence, tako da je mogoče nekoliko teoretično naravo teme lažje dojeti. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično dilemo umetne inteligence, je pojav pravih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, kaj pojasni glede treh predlaganih kategorij pristranskosti umetne inteligence, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in umetna inteligenca

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Verjamem, da to zagotavlja dovolj litanij opozoril, na podlagi katerih bom povedal.

Zdaj smo pripravljeni na globok potop v samovozeče avtomobile in možnosti etične umetne inteligence, ki vključujejo tri kategorije pristranskosti umetne inteligence.

Predstavljajte si, da se samovozeči avtomobil, ki temelji na umetni inteligenci, vozi po ulicah v vaši soseski in se zdi, da vozi varno. Sprva ste vsakič, ko ste uspeli ujeti pogled na samovozeči avto, posvetili posebno pozornost. Avtonomno vozilo je izstopalo s svojo stojalo elektronskih senzorjev, ki so vključevali video kamere, radarske enote, naprave LIDAR in podobno. Po mnogih tednih samovozečega avtomobila, ki kroži po vaši skupnosti, ga zdaj komaj opazite. Kar se vas tiče, je to zgolj še en avto na že tako prometnih javnih cestah.

Da ne bi mislili, da je nemogoče ali neverjetno spoznati samovozeče avtomobile, sem pogosto pisal o tem, kako so se kraji, ki so v okviru preizkusov samovozečih avtomobilov, postopoma navadili videti polepšana vozila, glej mojo analizo na tukaj povezava. Številni domačini so se sčasoma preusmerili iz zanosenega zuljenja z razpršenimi usti in zdaj oddajali ekspanzivno zehanje dolgčasa, da bi bili priča tem vijugastim samovozečim avtomobilom.

Verjetno je zdaj glavni razlog, da bi lahko opazili avtonomna vozila, posledica razdraženosti in razdraženosti. Sistemi za vožnjo z umetno inteligenco, ki so običajni v knjigi, zagotavljajo, da avtomobili spoštujejo vse omejitve hitrosti in cestna pravila. Za naporne človeške voznike v njihovih tradicionalnih avtomobilih, ki jih poganja človek, se občasno razjezite, ko obtičate za samovozečimi avtomobili na osnovi umetne inteligence, ki spoštujejo zakone.

To je nekaj, na kar se bomo morda morali vsi navaditi, upravičeno ali ne.

Nazaj k naši zgodbi.

Nato bomo razmislili o tem, kako bi se sistemske pristranskosti lahko pojavile v tem kontekstu samovozečih avtomobilov.

Nekateri poznavalci so zelo zaskrbljeni, da bodo samovozeči avtomobili lastnost le premožnih in elite. Lahko se zgodi, da bodo stroški uporabe samovozečih avtomobilov previsoki. Razen če nimate velikih dolarjev, morda ne boste nikoli videli notranjosti samovozečega avtomobila. Trdijo, da bodo tisti, ki bodo uporabljali samovozeče avtomobile, morali biti bogati.

Zato nekateri vznemirljivo opozarjajo, da bo pojav samovozečih avtomobilov, ki temeljijo na umetni inteligenci, prežela oblika sistemske pristranskosti. Celoten industrijski sistem avtonomnih vozil bo preprečil samovozeče avtomobile iz rok tistih, ki so revni ali manj premožni. To morda ni nujno z očitnim namenom in se izkaže, da bo edini verjetni način za povrnitev obremenjujočih stroškov izuma samovozečih avtomobilov zaračunavanje nesramno visokih cen.

Če odvrnete, da danes obstajajo ti preizkusi samovozečih avtomobilov, ki omogočajo uporabo vsakdanjemu človeku, zato se zdi očitno, da vam ni treba biti bogat sam po sebi, je protiargument, da je to nekakšna igra lupine, saj je bilo. Proizvajalci avtomobilov in samovozeča tehnološka podjetja so domnevno pripravljeni prikazati, kot da stroški ne bodo bistvena ovira. Trenutno to počnejo za namene odnosov z javnostmi in bodo dvignili cene, ko bodo ugotovili gube. Zarotnik bi lahko celo trdil, da so »poskusni zajčki« kot vsakdanje osebe škodljivo uporabljeni, da bi bogatim omogočili, da na koncu postanejo še bogatejši.

Glede na to precej sporno zadevo in glede na to umazano temo dam svoja dva centa, ne verjamem, da bodo samovozeči avtomobili dražji za vsakodnevno uporabo. Tukaj se ne bom spuščal v podrobnosti glede svoje podlage za takšno trditev in vas vabim, da si ogledate moje pozorne razprave na povezava tukaj in tudi pri povezava tukaj.

Če nadaljujemo, lahko nato razmislimo o statističnih in računskih pristranskostih, povezanih z umetno inteligenco.

Razmislite o na videz nepomembnem vprašanju, kje bodo samovozeči avtomobili romali po potnike. Zdi se, da je to nadvse neškodljiva tema. Uporabili bomo zgodbo o mestu ali mestu, ki ima samovozeče avtomobile, da bi poudarili morda presenetljivo potencialen spekter statističnih in računalniških pristranskosti, povezanih z umetno inteligenco.

Sprva predpostavimo, da se je umetna inteligenca sprehajala po samovozečih avtomobilih po vsem mestu. Vsakdo, ki je želel zaprositi za prevoz s samovozečim avtomobilom, je imel v bistvu enake možnosti, da ga pokliče. Postopoma je umetna inteligenca začela predvsem ohranjati samovozeče avtomobile v samo enem delu mesta. Ta del je bil večji zaslužek in sistem AI je bil programiran tako, da poskuša povečati prihodke kot del uporabe v skupnosti.

Za člane skupnosti v revnih delih mesta je manj verjetno, da bi se lahko zapeljali s samovozečim avtomobilom. To je bilo zato, ker so bili samovozeči avtomobili bolj oddaljeni in so gostovali v delu z višjimi prihodki. Ko je prispela zahteva iz oddaljenega dela mesta, bi vsaka zahteva iz bližje lokacije, ki bi bila verjetno v »cenjenem« delu mesta, dobila višjo prednost. Sčasoma je bila razpoložljivost samovozečega avtomobila na katerem koli mestu, razen v bogatejšem delu mesta, skoraj nemogoča, kar je zelo razburljivo za tiste, ki so živeli na teh območjih, ki so zdaj stradani z viri.

Lahko bi trdili, da je umetna inteligenca v veliki meri pristala na obliki statističnih in računalniških pristranskosti, podobnih obliki proxy diskriminacije (pogosto imenovane tudi posredna diskriminacija). AI ni bil programiran, da bi se izognil tem revnejšim soseskam. Namesto tega se je tega »naučil« z uporabo ML/DL.

Predpostavljalo se je, da AI nikoli ne bo padel v tako sramoten živi pesek. Ni bilo vzpostavljeno nobeno specializirano spremljanje, ki bi spremljalo, kam gredo samovozeči avtomobili na osnovi umetne inteligence. Šele potem, ko so se člani skupnosti začeli pritoževati, so mestni voditelji ugotovili, kaj se dogaja. Za več o tovrstnih mestnih težavah, ki jih bodo predstavila avtonomna vozila in samovozeči avtomobili, glejte mojo reportažo na tukaj povezava in ki opisuje študijo, ki jo vodi Harvard, ki sem jo soavtor na to temo.

Za tretjo kategorijo človeških pristranskosti v povezavi s pristranskostjo umetne inteligence se obrnemo na primer, ki vključuje umetno inteligenco, ki določa, ali naj se ustavi zaradi čakanja na pešce, ki nimajo prednosti za prečkanje ulice.

Nedvomno ste vozili in naleteli na pešce, ki so čakali, da prečkajo ulico, pa niso imeli prednosti za to. To je pomenilo, da ste imeli diskrecijsko pravico, ali se ustavite in jih pustite prečkati. Lahko nadaljujete, ne da bi jim pustili prečkati, in še vedno v celoti v skladu z zakonitimi pravili vožnje.

Študije o tem, kako se človeški vozniki odločijo, da se ustavijo ali ne ustavijo zaradi takšnih pešcev, kažejo, da se včasih človeški vozniki odločijo na podlagi nepristranskosti. Človeški voznik bi lahko pogledal pešca in se odločil, da se ne bo ustavil, čeprav bi se ustavil, če bi imel pešec drugačen videz, na primer glede na raso ali spol. To sem pregledal na povezava tukaj.

Predstavljajte si, da so samovozeči avtomobili, ki temeljijo na umetni inteligenci, programirani za reševanje vprašanja, ali se ustaviti ali ne ustaviti za pešce, ki nimajo prednosti. Evo, kako so se razvijalci AI odločili programirati to nalogo. Podatke so zbirali iz mestnih video kamer, ki so nameščene po vsem mestu. Podatki prikazujejo človeške voznike, ki se ustavijo za pešce, ki nimajo prednosti in voznike, ki se ne ustavijo. Vse je zbrano v velikem naboru podatkov.

Z uporabo strojnega učenja in globokega učenja so podatki računalniško modelirani. Sistem vožnje z umetno inteligenco nato uporablja ta model, da se odloči, kdaj se ustaviti ali ne. Na splošno je ideja, da ne glede na to, iz česar je sestavljen lokalni običaj, bo AI tako usmerjala samovozeči avto.

Na presenečenje mestnih voditeljev in prebivalcev se je AI očitno odločil ustaviti ali ne ustaviti glede na starost pešca. Kako se je to lahko zgodilo?

Po natančnejšem pregledu videoposnetka o presoji človeka voznika se izkaže, da je veliko primerov neustavljanja pomenilo pešce, ki so imeli palico starejšega občana. Človeški vozniki se očitno niso hoteli ustaviti in pustiti ostarele osebe prečkati ulico, verjetno zaradi domnevne dolžine časa, ki bi lahko trajal, da bi nekdo opravil pot. Če je bilo videti, da bi pešec lahko hitro prečkal cesto in skrajšal čakalni čas voznika, so vozniki osebo bolj dovolili prečkati.

To se je globoko zakopalo v vozni sistem AI. Senzorji samovozečega avtomobila bi skenirali čakajočega pešca, vnesli te podatke v model ML/DL, model pa bi AI oddal, ali naj se ustavi ali nadaljuje. Kakršen koli vizualni znak, da bi pešec morda počasi prečkal, kot je uporaba sprehajalne palice, je bil matematično uporabljen za določitev, ali naj sistem vožnje z umetno inteligenco pusti čakajočega pešca prečkati ali ne.

Lahko bi trdili, da se je to zanašalo na že obstoječo človeško pristranskost.

zaključek

Zaenkrat še nekaj zadnjih misli.

Obstaja priljubljen pregovor, da ne morete spremeniti kart, ki so vam bile razdeljene, in se morate namesto tega naučiti ustrezno igrati s katero koli kombinacijo, ki ste jo dobili.

V primeru pristranskosti umetne inteligence, če se vneto ne lotimo vsesplošne vzpostavitve etike umetne inteligence in še posebej ne utrdimo karakterizacije pristranskosti umetne inteligence, bodo roke, s katerimi se bomo ukvarjali, preplavljene z zanikrno neetičnostjo, in morda nezakoniti sloj. Za začetek moramo preprečiti, da bi se te karte sploh delile. Pogumni cilj ustvarjanja in razširjanja etičnih standardov umetne inteligence je ključno orodje za boj proti naraščajočemu cunamiju v prihajajočem času. AI za slabo.

Banki lahko odločno poveste, da bosta razširjena pristranskost umetne inteligence in neetična umetna inteligenca podobna šibki hiši iz kart, ki se bo sesula vase in bo verjetno katastrofalna za vse nas.

Igrajmo za zmago in to z ustrezno etično umetno inteligenco.

Vir: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/