Etika umetne inteligence skeptična glede vzpostavitve tako imenovanih zakonov AI z rdečo zastavo za klicanje pristranskih algoritmov v avtonomnih sistemih AI

Pogovorimo se o zakonih o rdeči zastavi.

Nedvomno veste, da je bil pojem zakonov o rdeči zastavi v zadnjem času zelo razširjen v novicah. Veliko je naslovov, ki pokrivajo to temo. Strasti in strastne razprave o takšnih zadevah so na vrhuncu misli kot družbene skrbi in vključujejo sedanje in hitro nastajajoče zakone o orožju z rdečo zastavo.

Upam pa trditi, da morda niste seznanjeni z drugimi zakoni o rdeči zastavi, sprejetimi v poznih 1800-ih, ki se nanašajo na motorna vozila in predhodnike današnjih vsakdanjih sodobnih avtomobilov. Da, tako je, zakoni o rdeči zastavi segajo v zgodovino, čeprav pokrivajo druge teme v primerjavi z današnjim sodobnim fokusom. Ti se običajno imenujejo prometni zakoni z rdečo zastavo.

Ti zdaj že stoletja stari in popolnoma zastareli zakoni so zahtevali, da mora vsak motorni voziček ali motor, ki ga poganja para, v tistem času imeti odrasla oseba pred vozilom in nositi rdečo zastavo zaradi opozorila. Zamisel je bila, da bi se lahko živina vznemirila zaradi teh hrupnih in hudomušnih naprav, ki se počasi in neenakomerno vrtijo po makadamskih ali obrobno tlakovanih cestah, tako da bi se lahko kdo sprehajal pred napravo in močno mahal z rdečo zastavo, lahko upamo, da se izogne ​​​​nastanku nesreč. Če se sprašujete, so bile železnice in vlaki izključeni iz istih zakonov, saj so bila vozila, ki so v celoti vezana na tirnice, in so imeli druge zakone, ki so pokrivali njihova dejanja.

Predstavljajte si, da bi morali danes mahati z rdečimi zastavami kot zahtevo za vsak avto na naših javnih cestah.

Na primer, navaden voznik, ki prihaja po vaši soseski, bi moral zagotoviti, da je odrasla oseba, ki maha z rdečo zastavo, prisotna in paradirala pred premikajočim se avtomobilom. To bi se moralo zgoditi za vsako vozilo, ki gre po vaši ulici. Morda bi ljudje postali zaposlovalci z rdečo zastavo, ki bi najeli voznike mimoidočih avtomobilov, ki sicer ne bi imeli prijatelja ali sorodnika, ki bi lahko šel pred njimi in naredil določeno akcijo mahanja.

Danes vemo, da mahanje z rdečo zastavo, povezano z avtocestami, povezujemo z gradbišči cest. Ko se približate razkopani cesti, bodo delavci dvignili rdečo zastavo, da bi pritegnili vašo pozornost. To vam pove, da upočasnite in bodite pozorni. Lahko bi bil buldožer, ki vam bo zadel na pot. Pred vami je lahko velikanska luknja in jo boste morali previdno prečkati.

Toda vrnimo se k uporabi rdečih zastav iz leta 1800.

Verjeli ali ne, rdeča zastava naj bi bila vsaj osmina milje pred prihajajočim motornim strojem. Zdi se, da je to precej dolga razdalja. Človek pa domneva, da je bilo to v tistih časih zelo smiselno. Osupljivi zvoki motorja in morda že sam pogled na vozilo bi lahko bili dovolj, da bi živali vznemirile. Nekateri zakoni o Rdeči zastavi tiste dobe so zahtevali tudi, da se ponoči dvigne svetleča rdeča luč, tako da je bilo iz zatemnjene razdalje vidno vidno rdeče previdnostno opozorilo.

Na splošno mislim, da je pošteno trditi, da smo kot družba nagnjeni k temu, da rdečo zastavo povezujemo kot nekakšen signal ali znak, da je nekaj potencialno narobe ali vsaj potrebuje našo predano pozornost.

Pripravite se na malo preobrata tega pojava rdeče zastave.

Obstaja trditev, da bi morali zahtevati določbe rdeče zastave, ko gre za umetno inteligenco (AI).

To je nekoliko osupljiv in presenetljiv koncept, ki spravi marsikatero glavo. Morda boste zmedeni, kako in zakaj bi morali obstajati tako imenovani Zakoni o AI z rdečo zastavo. Upoštevajte, da to označujem kot zakone o umetni inteligenci z rdečo zastavo, da bi razlikoval zadevo od prometnih zakonov z rdečo zastavo (kot so tisti iz poznih 1800-ih) in jih tudi ločil od današnjih drugih bolj razširjenih zakonov o orožju rdeče zastave.

Ali dejansko potrebujemo zakone o umetni inteligenci z rdečo zastavo, ki so izrazito in izključno usmerjeni v zadeve umetne inteligence?

Tisti, ki podpirajo predlagani pristop, bi vztrajali, da nujno potrebujemo zakonske določbe, ki bi pomagale zajeziti umetno inteligenco, ki vsebuje neupravičene pristranskosti in deluje na diskriminatorne načine. Trenutno sta izgradnja in uporaba umetne inteligence podobna okoliščinam Divjega zahoda. Prizadevanja za obvladovanje slabe umetne inteligence so trenutno odvisna od oblikovanja in sprejetja etičnih smernic AI. Za moje stalno in obsežno pokrivanje etike umetne inteligence in etične umetne inteligence glej povezava tukaj in povezava tukaj, samo da navedem nekaj.

Zakoni, ki zajemajo slabo umetno inteligenco, se počasi oblikujejo in sprejemajo, glejte moj prispevek na povezava tukaj. Nekateri skrbijo, da zakonodajalci ne delujejo dovolj hitro. Zdi se, kot da so poplavna vrata, ki omogočajo spodbujanje pristranske umetne inteligence v svetu, trenutno na široko odprta. Kršenje rok pravi, da ko bodo novi zakoni ušli v knjige, bo zlobni duh že izstopil iz steklenice.

Ne tako hitro, protiargumenti gredo. Skrbi je, da bomo, če bodo zakoni uvedeni prehitro, tako rekoč ubili zlato gosko, pri čemer bodo prizadevanja AI usahnila in ne bomo dobili družbeno krepitvenih koristi novih sistemov AI. Razvijalci umetne inteligence in podjetja, ki želijo uporabljati umetno inteligenco, se lahko prestrašijo, če se na zvezni, državni in lokalni ravni nenadoma uveljavi vrsta bizantinskih zakonov, ki urejajo umetno inteligenco, da ne omenjamo mednarodnih zakonov, povezanih z umetno inteligenco, ki napredujejo.

V to neurejeno zadevo pride poziv za zakone o umetni inteligenci Red Flag.

Preden se poglobimo v nekaj več o mesu in krompirju o razmislekih o divji in volnati, na katerih temelji predvideni zakon o AI o rdeči zastavi, vzpostavimo nekaj dodatnih osnov o zelo bistvenih temah. Na kratko se moramo potopiti v etiko umetne inteligence in zlasti v pojav strojnega učenja (ML) in globokega učenja (DL).

Morda se nejasno zavedate, da je eden najglasnejših glasov teh dni na področju umetne inteligence in celo zunaj področja umetne inteligence zahtevanje večjega videza etične umetne inteligence. Oglejmo si, kaj pomeni sklicevanje na etiko umetne inteligence in etično umetno inteligenco. Poleg tega bomo raziskali, kaj mislim, ko govorim o strojnem učenju in poglobljenem učenju.

En poseben segment ali del etike umetne inteligence, ki je bil deležen velike medijske pozornosti, je umetna inteligenca, ki kaže nenaklonjene pristranskosti in neenakosti. Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Čez trenutek bom z vami delil nekaj splošnih načel, na katerih temelji etika umetne inteligence. Tu in tam je veliko tovrstnih seznamov. Lahko bi rekli, da še ni enotnega seznama univerzalne privlačnosti in soglasja. To je žalostna novica. Dobra novica je, da so vsaj na voljo seznami etike AI in so ponavadi precej podobni. Vse skupaj nakazuje, da z nekakšno obliko utemeljene konvergence iščemo pot do splošne skupnosti tega, iz česar je sestavljena etika umetne inteligence.

Najprej na kratko pokrijmo nekaj splošnih etičnih predpisov umetne inteligence, da ponazorimo, kaj bi moralo biti ključnega pomena za vsakogar, ki ustvarja, uporablja ali uporablja AI.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da so "samo koderji" ali tisti, ki programirajo umetno inteligenco, podvrženi spoštovanju konceptov etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

Prepričajmo se tudi, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli super inteligentno AI, je možno, da bi bila taka AI na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne AI kot možnosti glej pokritost tukaj).

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vrnimo se k našemu poudarku na zakonih o umetni inteligenci Red Flag.

Temeljni koncept je, da bi ljudje lahko dvignili rdečo zastavo, kadar bi menili, da sistem umetne inteligence deluje neupravičeno pristransko ali diskriminatorno. Sami po sebi ne bi dvignili fizične zastave, temveč bi preprosto uporabili nekatera elektronska sredstva, da bi izrazili svoje pomisleke. Del sheme ali pristopa z rdečo zastavo je bolj metafora kot fizična utelešenje.

Pretvarjajte se, da ste zaprosili za stanovanjsko posojilo. Odločite se za uporabo spletne bančne storitve, da zaprosite za posojilo. Po vnosu nekaterih osebnih podatkov za trenutek počakate, da sistem AI, ki se uporablja, odloči, ali ste posojila vredni ali ne. AI vam pove, da ste bili zavrnjeni za posojilo. Ko ste zahtevali razlago, zakaj ste bili zavrnjeni, se zdi, da vam besedilna pripoved nakazuje, da je umetna inteligenca kot del algoritma odločanja uporabljala nepotrebne pristranske dejavnike.

Čas je, da dvignemo rdečo zastavo o AI.

Kje točno se bo vihala ta rdeča zastava?

To je vprašanje za milijon dolarjev.

Eno stališče je, da bi morali vzpostaviti nacionalno bazo podatkov, ki bi ljudem omogočila, da označijo svoje rdeče zastavice, povezane z umetno inteligenco. Nekateri pravijo, da bi to morala urediti zvezna vlada. Zvezne agencije bi bile odgovorne za preučitev rdečih zastav in pomoč širši javnosti glede verodostojnosti in obravnavanje domnevno "slabe AI", ki je povzročila rdečo zastavo pri poročanju.

Zdi se, da bi kongres določil nacionalni zakon o AI z rdečo zastavo. Zakon bi določal, kaj je rdeča zastava, ki se nanaša na umetno inteligenco. Zakon bi opisal, kako se dvignejo te rdeče zastavice z umetno inteligenco. In tako naprej. Lahko se tudi zgodi, da bi se posamezne države lahko odločile tudi za oblikovanje lastnih zakonov o umetni inteligenci z rdečo zastavo. Morda to storijo namesto nacionalne pobude ali pa zato, da poglobijo podrobnosti, ki so še posebej privlačne za njihovo specifično državo.

Kritiki zveznega ali katerega koli vladno podprtega programa umetne inteligence Red Flag AI bi trdili, da je to nekaj, kar lahko stori zasebna industrija, in ne potrebujemo, da bi Big Brother prišel v ospredje. Industrija bi lahko vzpostavila spletni repozitorij, v katerega bi ljudje lahko registrirali rdeče zastavice o sistemih AI. Samopolicijski ukrep industrije bi zadostno obravnaval ta vprašanja.

Pomislek glede domnevnega industrijskega pristopa je, da se zdi, da diši po kroniizmu. Ali bi bila podjetja pripravljena spoštovati kakšno zasebno zbirko podatkov Red Flag AI? Mnoga podjetja bi potencialno prezrla označene rdeče zastavice o svoji AI. Ne bi bilo ostrih zob proti temu, da bi se podjetja ukvarjala z vnesenimi rdečimi zastavami.

Hej, zagovorniki pristopa zasebnega sektorja se ne strinjajo, to bi bilo podobno nacionalni storitvi Yelp. Potrošniki bi lahko pogledali rdeče zastavice in se sami odločili, ali želijo poslovati s podjetji, ki so pripravila množico rdečih zastav, usmerjenih v umetno inteligenco. Banka, ki je dobivala na tone rdečih zastav glede svoje umetne inteligence, bi morala biti pozorna in prenoviti svoje sisteme umetne inteligence, tako je logika, sicer bi se potrošniki podjetju izogibali kot kuga.

Ne glede na to, ali se tega celotnega pristopa loteva vlada ali industrija, je le vrh ledene gore glede trnovih vprašanj, s katerimi se sooča predlagani postulat o umetni inteligenci o rdeči zastavi.

Postavite se v kožo podjetja, ki je razvilo ali uporablja AI. Lahko se zgodi, da bi potrošniki opozorili na rdečo zastavo, čeprav za to ni bilo uporabne podlage. Če bi ljudje lahko svobodno objavili rdečo zastavo o umetni inteligenci, bi jih morda zamikalo, da bi to storili na kaprico ali morda zaradi maščevanja podjetju, ki sicer ni storilo nič narobe do potrošnika.

Skratka, o AI bi lahko bilo veliko lažno pozitivnih rdečih zastav.

Druga stvar je velika velikost ali velikost nastalih rdečih zastav. Z lahkoto bi se lahko dvignili milijoni in milijoni rdečih zastav. Kdo bo spremljal vse te rdeče zastave? Kakšni bi bili stroški za to? Kdo bo plačal za nadaljnja prizadevanja pod rdečo zastavo? itd.

Če bi rekli, da mora vsak, ki se registrira ali prijavi rdečo zastavo o AI, plačati pristojbino, ste vstopili v mračno in zahrbtno kraljestvo. Skrb bi bila, da bi si dvigovanje rdečih zastav lahko privoščili le bogati. To posledično pomeni, da obubožani ne bi mogli enakopravno sodelovati v dejavnostih z rdečo zastavo in v bistvu nimajo prostora za opozarjanje na škodljivo umetno inteligenco.

Zaenkrat samo še en dodaten zasuk, in sicer, da se zdi, da so tovrstni zakoni ali smernice o umetni inteligenci zastavljeni in ne služijo kot opozorilo vnaprej.

Če se vrnemo k prometnim predpisom z rdečo zastavo, je bil poudarek uporabe rdeče zastave na preprečevanju nesreče na začetku. Zavijanje rdeče zastave naj bi bilo daleč pred prihajajočim avtomobilom. S tem, da bi bili pred vozilom, bi bila živina opozorjena in tisti, ki so jo čuvali, bi vedeli, da morajo sprejeti previdnostne ukrepe zaradi vira motečega, ki bo kmalu prispel.

Če so ljudje sposobni samo dvigniti rdečo zastavo glede umetne inteligence, ki je navidezno že škodovala ali spodkopala njihove pravice, je pregovorni konj že ven iz hleva. Vse, kar se zdi, da bi to doseglo, je, da upajmo, da bodo drugi ljudje, ki prihajajo, zdaj vedeli, da so previdni do tega sistema AI. Medtem je oseba, ki naj bi bila storjena krivica, že trpela.

Nekateri menijo, da bi morda lahko ljudem dovolili, da dvignejo rdeče zastave glede umetne inteligence osumljenec lahko pristranski, tudi če niso uporabljali AI in nanje ni neposredno vplivala AI. Tako se rdeča zastava zamahne, preden je škoda storjena.

Joj, odgovarjam, res boste spremenili rdeče zastavice, ki se spopadajo z umetno inteligenco, v popolnoma neobvladljivo in kaotično zadevo. Če lahko kdo iz kakršnega koli razloga dvigne rdečo zastavo glede sistema umetne inteligence, kljub temu, da s to umetno inteligenco ni naredil ničesar, vas bodo preplavile rdeče zastave. Še huje, ne boste mogli razločiti pšenice od plev. Celoten pristop z rdečo zastavo se bo podrl pod lastno težo, kar bo uničilo dobroto ideje, tako da bo flotsam in riffraff omogočil potopiti celotno ladjo.

Vrtoglavo in zmede.

Stavim, da si na tem mestu te pomembne razprave želite nekaj ilustrativnih primerov, ki bi lahko predstavili to temo. Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Vidite, kot strokovnjak za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, razsvetljuje kaj o zakonih o umetni inteligenci z rdečo zastavo in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in zakoni o umetni inteligenci z rdečo zastavo

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Upam, da je to zadostno število opozoril, ki bi podlagale to, kar bom povedal.

Oglejmo si scenarij, ki bi lahko izkoristil zakon o umetni inteligenci rdeče zastave.

Sedete v samovozeči avto, ki temelji na umetni inteligenci, in želite, da vas avtonomno vozilo odpelje v vašo lokalno trgovino z živili. Med razmeroma kratkim potovanjem AI ubere pot, ki se vam zdi nekoliko napačna. Namesto da bi šla po najbolj neposredni poti, AI navigira na odmaknjene ulice, zaradi česar je čas vožnje daljši, kot bi lahko bil običajno.

Kaj se dogaja?

Ob predpostavki, da plačujete za uporabo samovozečega avtomobila, ste morda sumljivi, da je bila umetna inteligenca programirana za vožnjo po daljši poti, da bi poskušala zvišati vozovnico ali stroške potovanja. Vsakdo, ki je kdaj uporabil običajno kabino, ki jo poganja človeška kabina, pozna zvijačo, ki se lahko zgodi, da dobiš več testa na števcu. Seveda, če imajo ljudje GPS na svojih pametnih telefonih, medtem ko se vozijo v taksiju ali enakovrednem, lahko zlahka ujamete človeškega voznika, ki se zdi, da se prikrito pelje po nepotrebno dolgih poteh.

Izkazalo se je, da imate še eno skrb glede izbire poti, nekaj, kar vas resnično žre.

Recimo, da je bila usmerjanje narejeno, da bi se izognili določenim delom mesta zaradi rasnih vidikov. Obstajajo dokumentirani primeri človeških voznikov, ki so bili ujeti pri tovrstnih odločitvah, glejte mojo razpravo na povezava tukaj. Morda je bila umetna inteligenca zaradi tega programirana negativno.

Odločili ste se dvigniti rdečo zastavo.

Predpostavimo zaradi razprave, da je bil sprejet zakon o AI z rdečo zastavo, ki pokriva vašo jurisdikcijo. Lahko je lokalno pravo, državno pravo, zvezno ali mednarodno pravo. Za analizo, ki sem jo soavtor s Harvardovo pobudo za politiko avtonomnih vozil (AVPI) o naraščajočem pomenu lokalnega vodstva, ko skupnosti sprejmejo uporabo samovozečih avtomobilov, glej povezava tukaj.

Torej greste na splet do baze podatkov Red Flag AI. V podatkovno zbirko incidentov vnesete podatke o potovanju z avtom. To vključuje datum in čas vožnje, skupaj z znamko in modelom samovozečega avtomobila. Nato vstopite na navigacijsko pot, ki se je zdela sumljiva, in namigujete ali morda odkrito trdite, da je bila AI zasnovana s pristranskimi ali diskriminatornimi nameni in zmogljivostmi.

O drugih podrobnostih zakona o umetni inteligenci rdeče zastave bi morali špekulirati o tem, kaj se bo zgodilo v tem posebnem scenariju. Teoretično bi obstajala določba, da bi nekdo pregledal rdečo zastavo. Verjetno bi skušali pridobiti proizvajalca avtomobilov ali samovozeče tehnološko podjetje, da pojasni svoje stališče glede označene rdeče zastave. Koliko drugih takšnih rdečih zastav je bilo registriranih? Kakšne rezultate so prinesle te rdeče zastave?

In tako bi šlo.

zaključek

Nesmiselno, opominjajo nekateri skeptiki.

Ne potrebujemo zakonov o umetni inteligenci rdeče zastave, oni strogo delujejo. Če boste naredili karkoli takega, boste otežili delo, ko gre za tempo in napredek AI. Vsak takšen zakon bi bil neumen. Ustvarili bi problem, ki ne reši problema. Obstajajo tudi drugi načini za ravnanje z AI, ki so slabi. Ne prijemajte se slepo za slamice, da bi se spopadli s pristransko umetno inteligenco.

Prestavljamo prestave, vsi vemo, da bikoborci uporabljajo rdeče pelerine, da očitno pritegnejo pozornost jeznega bika. Čeprav je rdeča barva, ki jo najbolj povezujemo s to prakso, boste morda presenečeni, ko veste, da znanstveniki pravijo, da biki ne zaznajo rdeče barve mulete (so barvno slepi za rdečo). Priljubljena oddaja Razkritja mitov naredil zelo zabaven pregled te zadeve. Premik ogrinjala je ključni element in ne izbrana barva.

Za tiste, ki zavračajo potrebo po zakonih o umetni inteligenci z rdečo zastavo, je nasprotna trditev, da potrebujemo nekaj dramatične in nedvoumne mahajoče narave, da zagotovimo, da se bodo razvijalci AI in podjetja, ki uporabljajo umetno inteligenco, izogibali pristranski ali slabi AI. Če ne za rdečo zastavo, bi morda plapolajoči ogrinjalo ali v bistvu kakršen koli opozorilni pristop lahko bil v okviru ustrezne obravnave.

Zagotovo vemo, da slaba umetna inteligenca obstaja in da bo v naši smeri šlo veliko več slabe umetne inteligence. Najti načine, kako se zaščititi pred škodljivo umetno inteligenco, je ključnega pomena. Enako pomembna je tudi postavitev zaščitnih ograj, da bi preprečili, da bi slaba umetna inteligenca prišla v svet.

Ernest Hemingway je slavno izjavil, da nihče nikoli ne živi svojega življenja do konca, razen bikoborcev. Poskrbeti moramo, da bodo ljudje lahko živeli svoje življenje do konca, ne glede na to, kakšna slabost ali norost nam je razglašena.

Vir: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- pristranski-algoritmi-v-avtonomnih-ai-sistemih/