Etika umetne inteligence zvoni na alarm glede grozečega spektra pristranskosti umetne inteligence v ogromnem svetovnem merilu, ki jo še posebej spodbujajo grozeči popolnoma avtonomni sistemi

Platon je znano izjavil, da dobra odločitev temelji na znanju in ne na številkah.

Ta bister vpogled se zdi presenetljivo predviden glede današnje umetne inteligence (AI).

Vidite, kljub hrupnim naslovom, ki trenutno razglašajo, da je umetna inteligenca nekako dosegla čutenje in uteleša človeško znanje in razmišljanje, se zavedajte, da je ta precenjena hiperbola umetne inteligence zahrbtna sprenevedanja, saj se pri današnjem algoritmskem odločanju še vedno zanašamo na drobljenje številk (ADM ), kot jih izvajajo sistemi AI. Celo hvaljena strojno učenje (ML) in globoko učenje (DL) sta sestavljena iz računalniškega ujemanja vzorcev, kar pomeni, da so številke še vedno v jedru vzvišene uporabe ML/DL.

Ne vemo, ali je umetna inteligenca možna doseči čutenje. Lahko bi bilo, morda ne bi bilo. Nihče ne more z gotovostjo reči, kako bi to lahko nastalo. Nekateri verjamejo, da bomo postopoma izboljšali naša prizadevanja na področju računalniške umetne inteligence, tako da se bo spontano pojavila oblika občutka. Drugi menijo, da bi umetna inteligenca lahko prešla v nekakšno računalniško supernovo in skoraj sama od sebe dosegla čutenje (ki se običajno imenuje singularnost). Za več o teh teorijah o prihodnosti umetne inteligence si oglejte mojo pokritost na povezava tukaj.

Torej, ne zavajajmo se in lažno verjamemo, da je sodobna umetna inteligenca sposobna razmišljati kot ljudje. Predvidevam, da potem pride v ospredje vprašanje o Platonovi pripombi, ali lahko imamo dobre odločitve, ki temeljijo na računalniški AI namesto na čuteči AI. Morda boste presenečeni, ko vem, da trdim, da lahko vsakdanji sistemi umetne inteligence dejansko sprejemajo dobre odločitve.

Druga plat tega kovanca je, da imamo lahko tudi vsakodnevne sisteme AI, ki sprejemajo slabe odločitve. Pokvarjene odločitve. Odločitve, ki so polne neprijetnih pristranskosti in nepravičnosti. Morda se zavedate, da je ob začetku zadnje dobe umetne inteligence prišlo do velikega izbruha navdušenja nad tem, čemur nekateri zdaj pravijo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

Moje obsežno poročilo o etiki umetne inteligence in etični umetni inteligenci najdete na tukaj povezava in tukaj povezava, samo da navedem nekaj.

Za to razpravo bi rad izpostavil še posebej zaskrbljujoč vidik umetne inteligence, ki ga tisti v areni etike umetne inteligence upravičeno objokujejo in poskušajo povečati ustrezno ozaveščenost. Streznitveno in zaskrbljujočo zadevo je pravzaprav povsem preprosto izpostaviti.

Tukaj je: Umetna inteligenca ima v resničnem svetu potencial za razširjanje pristranskosti, prepojenih z umetno inteligenco, na zaskrbljujoči svetovni ravni.

In ko rečem "v obsegu", to očitno pomeni ogromen svetovni obseg. Ogromen obseg. Lestvica, ki gre čez mejo.

Preden se poglobim v to, kako bo potekalo to skaliranje pristranskosti, ki jih povzroča umetna inteligenca, se prepričajmo, da imamo vsi videz, kako lahko umetna inteligenca vključi neupravičene pristranskosti in neenakosti. Ponovno se spomnite, da to ni čuteča sorta. Vse to je računskega kalibra.

Morda ste zmedeni, kako bi lahko umetna inteligenca vnesla enake vrste škodljivih pristranskosti in neenakosti kot ljudje. Ponavadi mislimo, da je umetna inteligenca popolnoma nevtralna, nepristranska, preprosto stroj, ki nima nobenega čustvenega vpliva in neumnega razmišljanja, ki bi ga lahko imeli ljudje. Eden najpogostejših načinov, da umetna inteligenca pade v pristranskosti in neenakosti, se zgodi pri uporabi strojnega učenja in globokega učenja, delno kot posledica zanašanja na zbrane podatke o tem, kako ljudje sprejemajo odločitve.

Dovolite mi trenutek, da podrobneje razložim.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje z vzorcem strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja ali ADM AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

To nas pripelje do vprašanja AI-strmih pristranskosti v obsegu.

Najprej si poglejmo, kako lahko človeške pristranskosti ustvarjajo neenakosti. Podjetje, ki izdaja hipotekarna posojila, se odloči najeti agenta za hipotekarna posojila. Zastopnik naj bi obravnaval zahteve potrošnikov, ki želijo dobiti stanovanjsko posojilo. Po oceni vloge agent sprejme odločitev o odobritvi posojila ali zavrnitvi posojila. Enostavno.

Za razpravo si predstavljajmo, da lahko človeški posojilojemalec analizira 8 posojil na dan, pri čemer si vzame približno eno uro za pregled. V petdnevnem delovnem tednu agent opravi približno 40 pregledov posojil. Na letni ravni agent običajno opravi približno 2,000 pregledov posojil, ne glede na to.

Podjetje želi povečati obseg pregledov posojil, zato zaposli 100 dodatnih posojilnih agentov. Predpostavimo, da imajo vsi približno enako produktivnost in da to pomeni, da lahko zdaj obravnavamo približno 200,000 posojil na leto (s stopnjo 2,000 pregledov posojil na leto na agenta). Zdi se, da smo res pospešili obdelavo vlog za posojila.

Izkazalo se je, da podjetje oblikuje sistem AI, ki lahko v bistvu opravi enake preglede posojil kot človeški agenti. AI deluje na računalniških strežnikih v oblaku. Prek infrastrukture v oblaku lahko podjetje brez težav doda več računalniške moči, da sprejme kakršno koli količino pregledov posojil, ki bi lahko bila potrebna.

Z obstoječo konfiguracijo AI lahko opravijo 1,000 pregledov posojil na uro. To se lahko zgodi tudi 24×7. Za AI ni potreben dopust. Brez odmora za kosilo. Umetna inteligenca deluje 9 ur na dan, ne da bi tarnala zaradi preobremenjenosti. Rekli bomo, da lahko s tem približnim tempom AI obdela skoraj XNUMX milijonov prošenj za posojila na leto.

Upoštevajte, da smo s 100 človeškimi agenti, ki bi lahko naredili 200,000 izposoj na leto, prešli na močno povečano število 9 milijonov pregledov na leto prek sistema AI. Dramatično smo povečali obdelavo zahtevkov za posojila. Brez dvoma.

Pripravite se na udarec, zaradi katerega boste morda padli s stola.

Predpostavimo, da nekateri naši človeški agenti sprejemajo svoje odločitve o posojilih na podlagi neugodnih pristranskosti. Morda nekateri dajejo rasni dejavnik ključno vlogo pri odločitvi o posojilu. Mogoče nekateri uporabljajo spol. Drugi uporabljajo starost. In tako naprej.

Od 200,000 letnih pregledov posojil, koliko jih je opravljenih pod napačnim pogledom negativnih pristranskosti in nepravičnosti? Morda 10 %, kar je približno 20,000 zahtevkov za posojilo. Še huje, predpostavimo, da gre za 50 % zahtevkov za posojilo, v tem primeru je precej zaskrbljujočih 100,000 letnih primerov napačno sprejetih odločitev o posojilih.

To je slabo. Vendar moramo še razmisliti o še bolj zastrašujoči možnosti.

Recimo, da ima AI skrito pristranskost, ki jo sestavljajo dejavniki, kot so rasa, spol, starost in podobno. Če je 10 % letnih analiz posojil podvrženih tej neprijetnosti, imamo 900,000 zahtevkov za posojila, ki se neustrezno obravnavajo. To je veliko več od tistega, kar bi človeški agenti sploh lahko storili, predvsem zaradi vidika obsega. Če bi teh 100 agentov v celoti izvajalo nepravičen pregled, bi lahko to naredilo največ pri 200,000 letnih pregledih posojil. Umetna inteligenca bi lahko storila enako v velikem obsegu od 9,000,000 letnih pregledov.

Všeč mi je!

To je resnično velikanska pristranskost, ki temelji na AI.

Ko so v sistem umetne inteligence zakopane neprijetne pristranskosti, se isto skaliranje, ki se je zdelo ugodno, zdaj postavi na glavo in postane pošastno zapeljiv (in moteč) rezultat skaliranja. Po eni strani se lahko umetna inteligenca uspešno osredotoči na več ljudi, ki zahtevajo stanovanjska posojila. Na površini se to zdi izjemno AI za dobro. Morali bi se potrepljati po ramenih, ker domnevno povečujemo možnosti, da ljudje dobijo potrebna posojila. Medtem, če ima umetna inteligenca vgrajene pristranskosti, bo skaliranje izjemno pokvarjen rezultat in žalostno se znajdemo zabredeni v AI za slabo, v resnično velikem obsegu.

Pregovorno dvorezni meč.

AI lahko radikalno poveča dostop do odločanja za tiste, ki iščejo želene storitve in izdelke. Nič več ozkega grla zaradi omejenega dela. Izjemen! Druga stran meča je, da če umetna inteligenca vsebuje slabosti, kot so skrite neenakosti, bo isto množično skaliranje razglasilo to neprijetno vedenje v nepredstavljivem obsegu. Razburljivo, napačno, sramotno in ne moremo dovoliti, da družba pade v tako grdo brezno.

Vsakdo, ki je bil zmeden, zakaj se moramo znebiti pomena etike umetne inteligence, bi se moral zdaj zavedati, da je pojav skaliranja umetne inteligence presneto pomemben razlog za iskanje etične umetne inteligence. Vzemimo si trenutek in na kratko razmislimo o nekaterih ključnih etičnih zapovedih umetne inteligence, da ponazorimo, kaj bi moralo biti bistvenega pomena za vsakogar, ki izdeluje, uporablja ali uporablja umetno inteligenco.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot lahko neposredno ugibate, je lahko zelo težko poskušati določiti posebnosti, na katerih temeljijo ta načela. Še več, prizadevanje, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je prav tako trd oreh. Na splošno je enostavno nekaj mahati z rokami o tem, kaj so zapovedi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija, ko mora biti kodiranje umetne inteligence prava guma, ki se sreča s cesto.

Načela etike umetne inteligence morajo uporabljati razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo prizadevanja za razvoj umetne inteligence, in celo tisti, ki končno izvajajo in vzdržujejo sisteme umetne inteligence. Vse zainteresirane strani v celotnem življenjskem ciklu razvoja in uporabe umetne inteligence so obravnavane v okviru spoštovanja že vzpostavljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da morajo »samo koderji« ali tisti, ki programirajo umetno inteligenco, upoštevati pojme etike umetne inteligence. Zavedajte se, da je za oblikovanje in uporabo AI potrebna vas. Za kar mora cela vas skrbeti za etiko umetne inteligence.

Kako deluje skaliranje pristranskosti z AI

Zdaj, ko sem izvedel, da lahko umetna inteligenca vsebuje pristranskosti, smo pripravljeni preučiti nekatere razloge, zakaj je skaliranje umetne inteligence tako vsiljivo.

Razmislite o tem ključnem seznamu desetih temeljnih razlogov:

  1. Enostavno replicirano
  2. Minimalni stroški za obseg
  3. Ostudno dosleden
  4. Pomanjkanje samorefleksije
  5. Slepa poslušnost
  6. Ne nagiba roke
  7. Prejemnik nič hudega sluteč
  8. Ne nagiba k provokacijam
  9. Lažna avra pravičnosti
  10. Težko ovreči

Na kratko bom raziskal vsako od teh ključnih točk.

Ko poskušate povečati obseg s človeškim delom, je verjetnost, da bo to izjemno zapleteno. Morate najti in zaposliti ljudi. Morate jih usposobiti za opravljanje dela. Morate jih plačati in upoštevati človeške želje in potrebe. Primerjajte to s sistemom AI. Vi ga razvijete in daste v uporabo. Razen določene količine stalnega vzdrževanja umetne inteligence se lahko usedete in pustite, da neskončno obdeluje.

To pomeni, da je AI enostavno posnemati. Dodate lahko več računalniške moči, kot to zahtevata naloga in obseg (ne zaposlujete ali odpuščate). Globalna uporaba poteka s pritiskom na gumb in dosežena z dostopnostjo interneta po vsem svetu. Povečanje je minimalen strošek v primerjavi s podobnim početjem s človeškim delom.

Človeško delo je znano nedosledno. Ko imate velike ekipe, imate pravo škatlo čokolade, v kateri nikoli ne veste, kaj imate v rokah. Sistem AI bo verjetno zelo dosleden. Vedno znova ponavlja iste dejavnosti, pri čemer je vsakič v bistvu enaka prejšnji.

Običajno bi bili navdušeni nad doslednostjo AI. Če smo ljudje nagnjeni k pristranskosti, bomo vedno imeli del našega človeškega dela, ki bo zašel. Če bi bila umetna inteligenca popolnoma nepristranska v svojih konstrukcijskih in računskih prizadevanjih, bi bila daleč bolj dosledna. Težava pa je v tem, da če ima AI skrite pristranskosti, je doslednost zdaj boleče odvratna. Možnosti so, da se bo pristransko vedenje dosledno izvajalo znova in znova.

Upajmo, da bodo ljudje imeli slutnjo samorefleksije in se morda ujeli pri pristranskih odločitvah. Ne rečem, da bi vsi tako storili. Prav tako ne trdim, da bodo tisti, ki se ujamejo, nujno popravili svoje napake. V vsakem primeru bi se vsaj nekateri ljudje včasih popravili.

Malo verjetno je, da bo AI imel kakršno koli obliko računalniške samorefleksije. To pomeni, da AI preprosto nadaljuje s tem, kar počne. Zdi se, da ni možnosti, da bi AI zaznal, da je v nasprotju z lastniškim kapitalom. Kot rečeno, opisal sem nekaj prizadevanj za spopadanje s tem, kot je izgradnja komponent AI Ethics znotraj AI (glejte povezava tukaj) in oblikovanje umetne inteligence, ki spremlja drugo umetno inteligenco, da bi prepoznala neetične dejavnosti umetne inteligence (glejte povezava tukaj).

Ker AI nima kakršne koli samorefleksije, je verjetno tudi, da bo v bistvu slepo ubogal vse, kar ji je bilo naročeno. Ljudje morda nismo tako poslušni. Možnosti so, da se bodo nekateri ljudje, ki opravljajo nalogo, spraševali, ali so morda vodeni na ozemlje nepravičnosti. Ponavadi bodo zavračali neetične ukaze ali morda šli po poti žvižgačev (glejte mojo reportažo na tukaj povezava). Ne pričakujte, da bo vsakodnevna sodobna umetna inteligenca nekako dvomila o svojem programiranju.

Nato se obrnemo na tiste, ki uporabljajo AI. Če ste iskali stanovanjsko posojilo in ste govorili s človekom, ste morda pozorni na to, ali vas človek pošteno strese. Zdi se, da je večina ljudi pri uporabi sistema AI manj sumničavih. Pogosto domnevajo, da je umetna inteligenca poštena in zato ne postanejo tako hitro razburjeni. Zdi se, da umetna inteligenca ljudi zaziba v trans »to je samo stroj«. Poleg tega je lahko težko poskusiti protestirati proti AI. Nasprotno pa je ugovarjanje temu, da vas je obravnaval človeški agent, veliko lažje in veliko pogosteje sprejeto ter se domneva kot izvedljivo.

Povsem povedano ima umetna inteligenca, ki je prepojena s pristranskostmi, nečastno prednost pred ljudmi, ki so prepojeni s pristranskostjo, in sicer v smislu, da lahko umetna inteligenca te pristranskosti množično uporablja v velikanskem obsegu, pri tem pa ne da bi jo takoj ujeli ali imeli potrošnike. spoznati, kaj se moteče dogaja.

Na tej točki te razprave bi stavil, da si želite nekaj dodatnih primerov, ki bi lahko prikazali uganko pristranskosti, ki jih povzroča umetna inteligenca v velikem obsegu.

Vesel sem, da si vprašal.

Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Kot strokovnjaka za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, razjasni kaj o pristranskosti, ki je močno povezana z umetno inteligenco, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, ki jih AI vozi povsem sam in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Na ravni 5 še ni pravega samovozečega avtomobila, za katerega še ne vemo, ali bo to mogoče doseči in koliko časa bo trajalo, da bi prišli do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in pristranskost umetne inteligence v velikem obsegu

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Verjamem, da to zagotavlja dovolj litanij opozoril, na podlagi katerih bom povedal.

Zdaj smo pripravljeni, da se globoko poglobimo v samovozeče avtomobile in možnosti etične umetne inteligence, kar vključuje raziskovanje pristranskosti, ki temeljijo na umetni inteligenci in se razglašajo v velikem obsegu.

Uporabimo lahko preprost primer. Samovozeči avto, ki temelji na umetni inteligenci, je v teku na ulicah vaše soseske in zdi se, da vozi varno. Sprva ste vsakič, ko ste uspeli ujeti pogled na samovozeči avto, posvetili posebno pozornost. Avtonomno vozilo je izstopalo s svojo stojalo elektronskih senzorjev, ki so vključevali video kamere, radarske enote, naprave LIDAR in podobno. Po mnogih tednih samovozečega avtomobila, ki kroži po vaši skupnosti, ga zdaj komaj opazite. Kar se vas tiče, je to zgolj še en avto na že tako prometnih javnih cestah.

Da ne bi mislili, da je nemogoče ali neverjetno spoznati samovozeče avtomobile, sem pogosto pisal o tem, kako so se kraji, ki so v okviru preizkusov samovozečih avtomobilov, postopoma navadili videti polepšana vozila, glej mojo analizo na tukaj povezava. Številni domačini so se sčasoma preusmerili iz zanosenega zuljenja z razpršenimi usti in zdaj oddajali ekspanzivno zehanje dolgčasa, da bi bili priča tem vijugastim samovozečim avtomobilom.

Verjetno je zdaj glavni razlog, da bi lahko opazili avtonomna vozila, posledica razdraženosti in razdraženosti. Sistemi za vožnjo z umetno inteligenco, ki so običajni v knjigi, zagotavljajo, da avtomobili spoštujejo vse omejitve hitrosti in cestna pravila. Za naporne človeške voznike v njihovih tradicionalnih avtomobilih, ki jih poganja človek, se občasno razjezite, ko obtičate za samovozečimi avtomobili na osnovi umetne inteligence, ki spoštujejo zakone.

To je nekaj, na kar se bomo morda morali vsi navaditi, upravičeno ali ne.

Nazaj k naši zgodbi.

Izkazalo se je, da se začneta pojavljati dve neprimerni pomisleki glede sicer neškodljivih in na splošno dobrodošlih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, in sicer:

a. Kjer umetna inteligenca roma po samovozečih avtomobilih za prevzem voženj, je bila izrazita skrb

b. Kako AI obravnava čakajoče pešce, ki nimajo prednosti, se je postavljalo kot pereče vprašanje

Sprva je umetna inteligenca romala po samovozečih avtomobilih po celem mestu. Vsak, ki je želel zahtevati vožnjo v samovozečem avtomobilu, je imel v bistvu enake možnosti, da ga pozdravi. Postopoma je umetna inteligenca začela predvsem zadržati samovozeče avtomobile, ki so gostovali v samo enem delu mesta. Ta del je bil večji zaslužek in sistem AI je bil programiran tako, da poskuša povečati prihodke kot del uporabe v skupnosti.

Za člane skupnosti v revnih delih mesta je manj verjetno, da bi se lahko zapeljali s samovozečim avtomobilom. To je bilo zato, ker so bili samovozeči avtomobili bolj oddaljeni in so gostovali v delu z višjimi prihodki. Ko je prispela zahteva iz oddaljenega dela mesta, bi vsaka zahteva iz bližje lokacije, ki bi bila verjetno v »cenjenem« delu mesta, dobila višjo prednost. Sčasoma je bila razpoložljivost samovozečega avtomobila na katerem koli mestu, razen v bogatejšem delu mesta, skoraj nemogoča, kar je zelo razburljivo za tiste, ki so živeli na teh območjih, ki so zdaj stradani z viri.

Lahko bi trdili, da je umetna inteligenca v veliki meri pristala na obliki proxy diskriminacije (ki jo pogosto imenujemo tudi posredna diskriminacija). AI ni bil programiran, da bi se izognil tem revnejšim soseskam. Namesto tega se je tega »naučil« z uporabo ML/DL.

Stvar je v tem, da so bili vozniki, ki si delijo vožnjo, znani po tem, da delajo isto stvar, čeprav ne nujno izključno zaradi zornega kota ustvarjanja denarja. Nekaj ​​voznikov, ki si delijo vožnjo, je bilo nepristransko pristransko glede pobiranja kolesarjev v določenih delih mesta. To je bil nekoliko znan pojav in mesto je vzpostavilo nadzorni pristop, da bi ulovilo človeške voznike, ki to počnejo. Človeški vozniki bi lahko imeli težave zaradi izvajanja neprijetnih izbirnih praks.

Domnevalo se je, da umetna inteligenca nikoli ne bo padla v isto vrsto živega peska. Za spremljanje, kam se vozijo samovozeči avtomobili, ki temeljijo na umetni inteligenci, ni bil vzpostavljen noben specializiran nadzor. Šele potem, ko so se člani skupnosti začeli pritoževati, so mestni voditelji ugotovili, kaj se dogaja. Za več o teh vrstah mestnih vprašanj, ki jih bodo predstavila avtonomna vozila in samovozeči avtomobili, si oglejte moj prispevek na tukaj povezava in ki opisuje študijo, ki jo vodi Harvard, ki sem jo soavtor na to temo.

Ta primer gostujočih vidikov samovozečih avtomobilov, ki temeljijo na umetni inteligenci, ponazarja prejšnje namige, da lahko pride do situacij, v katerih so ljudje z nepristranskimi pristranskostmi, za katere je vzpostavljen nadzor, in da je AI, ki nadomešča te človeške voznike, prepuščena prost. Na žalost se lahko AI postopoma zaplete v sorodne pristranskosti in to stori brez zadostnih zaščitnih ograj.

To tudi prikazuje pristranskosti, ki jih povzroča AI pri vprašanju obsega.

V primeru človeških voznikov smo morda imeli nekaj tu ali tam, ki so izvajali neko obliko nepravičnosti. Za sistem vožnje z umetno inteligenco je to običajno ena taka poenotena umetna inteligenca za celotno floto samovozečih avtomobilov. Tako bi lahko začeli z recimo petdesetimi samovozečimi avtomobili v mestu (vse poganja ista koda AI) in postopoma povečali na recimo 500 samovozečih avtomobilov (vse poganja ista koda AI). Ker vseh teh petsto samovozečih avtomobilov upravlja ista umetna inteligenca, so temu primerno vsi podvrženi enakim izpeljanim pristranskosti in neenakostim, vdelanim v umetno inteligenco.

V zvezi s tem nam skaliranje škodi.

Drugi primer vključuje AI, ki določa, ali naj se ustavi zaradi čakanja na pešce, ki nimajo prednosti za prečkanje ulice.

Nedvomno ste vozili in naleteli na pešce, ki so čakali, da prečkajo ulico, pa niso imeli prednosti za to. To je pomenilo, da ste imeli diskrecijsko pravico, ali se ustavite in jih pustite prečkati. Lahko nadaljujete, ne da bi jim pustili prečkati, in še vedno v celoti v skladu z zakonitimi pravili vožnje.

Študije o tem, kako se človeški vozniki odločijo, da se ustavijo ali ne ustavijo zaradi takšnih pešcev, kažejo, da se včasih človeški vozniki odločijo na podlagi nepristranskosti. Človeški voznik bi lahko pogledal pešca in se odločil, da se ne bo ustavil, čeprav bi se ustavil, če bi imel pešec drugačen videz, na primer glede na raso ali spol. To sem pregledal na povezava tukaj.

Predstavljajte si, da so samovozeči avtomobili, ki temeljijo na umetni inteligenci, programirani za reševanje vprašanja, ali se ustaviti ali ne ustaviti za pešce, ki nimajo prednosti. Evo, kako so se razvijalci AI odločili programirati to nalogo. Podatke so zbirali iz mestnih video kamer, ki so nameščene po vsem mestu. Podatki prikazujejo človeške voznike, ki se ustavijo za pešce, ki nimajo prednosti in voznike, ki se ne ustavijo. Vse je zbrano v velikem naboru podatkov.

Z uporabo strojnega učenja in globokega učenja so podatki računalniško modelirani. Sistem vožnje z umetno inteligenco nato uporablja ta model, da se odloči, kdaj se ustaviti ali ne. Na splošno je ideja, da ne glede na to, iz česar je sestavljen lokalni običaj, bo AI tako usmerjala samovozeči avto.

Na presenečenje mestnih voditeljev in prebivalcev se je AI očitno odločal, ali bo ustavil ali ne, glede na videz pešca, vključno z njihovo raso in spolom. Senzorji samovozečega avtomobila bi skenirali čakajočega pešca, vnesli te podatke v model ML/DL, model pa bi AI oddal, ali naj se ustavi ali nadaljuje. Na žalost je mesto že imelo veliko pristranskosti človeških voznikov v zvezi s tem in AI je zdaj posnemal isto.

Ta primer ponazarja, da lahko sistem umetne inteligence zgolj podvaja že obstoječe neugodne pristranskosti ljudi. Poleg tega to počne v velikem obsegu. Človeški vozniki so bili morda včasih naučeni, da izvajajo to neprijetno obliko izbire, ali pa so bili za to morda osebno izbrani, vendar je verjetno, da večina človeških voznikov tega verjetno ne počne množično.

V ostrem nasprotju bo sistem vožnje z umetno inteligenco, ki se uporablja za vožnjo samovozečih avtomobilov, verjetno grozljivo dosledno in zagotovo izvajal izpeljano pristranskost.

zaključek

Obstaja veliko načinov, kako se poskušati izogniti oblikovanju umetne inteligence, ki ima neugodne pristranskosti ali ki sčasoma pridobi pristranskosti. Zamisel je, kolikor je le mogoče, ujeti težave, preden preidete v visoko prestavo in se pospešite za povečanje. Upajmo, da pristranskosti ne bodo tako rekoč prišle skozi vrata.

Predpostavimo, da se bodo v AI pojavile takšne ali drugačne pristranskosti. Ko ste uvedeni v velikem obsegu z umetno inteligenco, ne morete kar tako narediti enega od teh pogosto razglašenih tehničnih pojmov »izstreli in pozabi«. Vztrajno morate spremljati, kaj počne AI, in poskušati odkriti morebitne neprijetne pristranskosti, ki jih je treba popraviti.

Kot je bilo že omenjeno, en pristop vključuje zagotavljanje, da se razvijalci umetne inteligence zavedajo etike umetne inteligence in jih tako spodbudijo, da bodo pripravljeni programirati umetno inteligenco za preprečevanje teh zadev. Druga možnost je, da se AI samonadzoruje za neetično vedenje in/ali ima drug del AI, ki spremlja druge sisteme AI za morebitno neetično vedenje. V svojih zapisih sem zajel številne druge možne rešitve.

Zaenkrat še zadnja misel. Ker smo to razpravo začeli s Platonovim citatom, bi bilo morda primerno, da diskurz zaključimo s še eno Platonovo bistroumno izjavo.

Platon je izjavil, da ni nič slabega v ponavljanju dobre stvari.

Enostavnost doseganja obsega z umetno inteligenco je zagotovo izvedljivo sredstvo za doseganje tako optimističnih želja, ko je umetna inteligenca AI za dobro raznolikost. Uživamo v ponavljanju dobre stvari. Ko je umetna inteligenca AI za slabo in polna neprimernih pristranskosti in nepravičnosti, bi se lahko oprli na Platonove pripombe in rekli, da je ponavljanje slabe stvari veliko škode.

Pazljivo prisluhnimo Platonovim modrim besedam in temu primerno oblikujmo svojo AI.

Vir: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- v svetovnem merilu-especially-fueled-via-looming-fully-autonomous-systems/