Etika umetne inteligence previdna glede poslabšanja asimetrije umetne inteligence, ko ljudje dobijo kratek konec palice

Včasih ste na napačnem koncu palice.

Ta kolokvializem se lahko uporabi za pojem asimetrije.

Ja, govoril bom o asimetriji. Kot ste verjetno že srečali v tem narobe obrnjenem svetu, v katerem živimo, obstajajo priložnosti, ko se vam zdi, da imate manj znanja o zadevi, ki je za vas relativno pomembna. To se uradno imenuje Informacijska asimetrija.

Ključno je, da imate manj znanja ali informacij, kot bi si morda želeli, poleg tega pa jih imate nedvomno manj kot druga stran, ki je vpletena v zadevo. V primerjavi z drugo stranjo ste v izrazito slabšem položaju. Vedo nekaj, česar ti ne veš. Izkoristijo lahko tisto, kar vedo, zlasti glede tega, česar vi ne veste, in dobijo prednost v kakršnih koli grobih posvetovanjih ali pogajanjih z vami.

No, v mestu je nov fant, znan kot Asimetrija AI.

Ta zadnja fraza se nanaša na možnost, da se zoperstavite nekomu, ki je oborožen z AI, medtem ko vi niste tako oboroženi.

Oni imajo AI na svoji strani, medtem ko imate vi, no, samo vas. Stvari so enostranske. Ste v domnevno slabšem položaju. Druga stran bo lahko tekala kroge okoli vas, ker jo je nadgradil AI. To bi lahko bilo znotraj slavnega reka, da je v ljubezni in vojni vse pošteno (dolgoletni pregovor, skovan v Euphues John Lyly, 1578), čeprav dinamika in nevarnosti asimetrije umetne inteligence odpirajo zahtevna vprašanja etične umetne inteligence. Za moje stalno in obsežno pokrivanje etičnosti umetne inteligence in etične umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Preden skočimo na področje umetne inteligence in njegove obilne zapletenosti v zvezi z asimetrijo umetne inteligence, najprej raziščimo vsakodnevno običajno različico navadne stare informacijske asimetrije. To bo postavilo temelje za vstop v pregovornega novega fanta z umetno inteligenco.

Kratka in namenoma razsvetljujoča zgodba vam lahko vzbudi apetit.

Pred dnevi mi je na cesti počila guma in hitro sem iskal primerno zamenjavo, ki bi jo lahko takoj namestil. S pametnim telefonom sem na spletu pogledal bližnje prodajalne pnevmatik, da bi ugotovil razdaljo, ki sem jo moral prevoziti s svojo pnevmatiko run-flat, in ali je kakšna trgovina odprta. Poleg tega sem na hitro ocenil njihove spletne ocene strank in poskušal zbrati kar koli uporabnega o tem, kako dolgo poslujejo, in drugih dejavnikih, ki bi lahko pokazali njihovo vrednost.

Ko sem poklical v eno od trgovin s pnevmatikami, mi je uslužbenec dal lahkoten predračun za stroške pnevmatike in njene montaže. Guma ni bila ravno to, kar sem imel v mislih, vendar mi je uslužbenec zagotovil, da bodo edina trgovina na tem območju, ki lahko takoj opravi delo. Po besedah ​​uslužbenca nobena druga bližnja pnevmatika ne bi imela takšnih gum na zalogi in bi ti konkurenti potrebovali vsaj en dan, da bi dobili ustrezno gumo iz kakšnega pol oddaljenega skladišča.

Bil sem sredi informacijske asimetrije.

Uslužbenec je izjavil, da ve več o lokalnem statusu trgovin s pnevmatikami in zlasti o vrsti pnevmatike, ki jo potrebujem. Bil sem na območju, skozi katerega sem šel samo mimo, in nisem imel nikakršnega znanja iz prve roke o trgovinah s pnevmatikami na tem določenem geografskem območju. Kolikor sem vedel, je bil uradnik na mestu in mi je povedal neokrnjeno resnico.

Toda ali je uradnik tako počel?

Mogoče ja morda ne.

Lahko da je uslužbenec iskreno verjel vsemu, kar mi je bilo posredovano. Za uradnika je bila to resnica. Ali pa je uslužbenec morda nekoliko raztegnil resnico. Možno je, da je to, kar je bilo rečeno, morda res, čeprav je način, na katerega je bilo prikazano, namigoval, da je to popolna in neizpodbitna resnica. Seveda bi lahko bila tudi popolna bedarija in je prodajalec samo šilingal trgovini s pnevmatikami, da bi pridobil moj posel. Bi lahko bila na vrsti sočna provizija?

Upam si trditi, da nihče ne mara biti v tako slabem položaju.

Vložki situacije so ključni dejavnik pri tem, kako pomembna je asimetrija informacij. Če gre za vprašanje življenja ali smrti, je biti v pasji uti in se zanašati na drugo stran glede tega, kar vedo ali trdijo, da vedo, nejasna in zelo nezaželena drža. Ko so vložki majhni , na primer ko naročite večerjo v restavraciji in vam strežnik pove, da je ribja jed nebeška, vendar tam še nikoli niste jedli in ste premalo obveščeni, se lahko strinjate s to malenkostjo asimetrije informacij brez večje skrbi (jaz predpostavimo tudi, da stavite tudi na to, da strežnik ne bi tvegal, da bi dal kisle nasvete in zamudil dostojno napitnino).

Če se vrnem k zgodbi o obrabljenih pnevmatikah (igra besed!), ne bi mogel takoj ugotoviti, ali mi je uslužbenec dajal zanesljive in informativne vpoglede. Morda se sprašujete, kaj se je zgodilo. Odločil sem se, da pokličem več bližnjih trgovin s pnevmatikami.

Ste pripravljeni na to, kar sem odkril?

Vse druge trgovine z gumami so imele mojo želeno gumo na zalogi in me niso hotele prepričevati, naj vzamem drugo gumo (kot je poskušal prvi prodajalec). Prav tako bi lahko opravili delo v istem roku kot prva trgovina s pnevmatikami, ki sem jo slučajno poklical. Po približno enaki ceni.

Z moje strani sem dobrodošel vzdih olajšanja, zagotavljam vam.

Ironično, po Murphyjevem zakonu slabe sreče je bilo prvo mesto, s katerim sem stopil v stik, edino, za katerega se je zdelo, da je tako rekoč zunaj na kosilu. Veseli me, da sem želel pridobiti več informacij. To je zmanjšalo informacijsko asimetrično vrzel. Ploskal sem si, ker sem vztrajal pri svojem in nisem pristal na prvo mesto, ki sem ga klical.

Kot rečeno, je bilo moje pridobivanje dodatnih informacij določenih stroškov. Opravil sem približno štiri klice, od katerih je vsak potreboval približno petnajst do dvajset minut, da sem jih v celoti opravil. V tem smislu sem porabil približno uro in pol, medtem ko sem samo ugotavljal, kam naj peljem avto. Če bi takoj odpeljal svoj avto na tisto prvo mesto, bi bila takrat že skoraj nova guma na mojem avtu. Po drugi strani pa bi kasneje skoraj zagotovo obžaloval hitro odločitev, ki sem jo sprejel, ko sem bil v podli informacijski asimetriji.

Včasih morate stisniti zobe in vzeti strašljivo informacijsko asimetrijo tako, kot se pojavi. Samo upate, da bo kakršna koli odločitev, ki jo sprejmete, dovolj dobra. Morda to ni "popolna" odločitev in bi lahko kasneje obžalovali svojo izbiro. Drugi zorni kot je, da bi lahko poskušali okrepiti svojo plat informacijske enačbe, čeprav to ni nujno brezplačno in bi lahko tudi žvečilo dragoceni čas, odvisno od tega, ali je cenjeni čas bistvenega pomena.

Zdaj, ko ste nedvomno potolaženi, da veste, da moj avto dobro deluje s svojo popolnoma novo in pravilno pnevmatiko, se lahko posvetim pojavu AI Asymmetry.

Razmislite o zgodbi AI o gorju.

Iščete stanovanjsko posojilo. Obstaja spletni analizator hipotekarnih zahtev, ki ga uporablja določena banka. Spletni sistem uporablja današnje napredne zmogljivosti AI. Ni vam treba govoriti s človeškim agentom za dodeljevanje posojil. AI naredi vse.

Sistem AI vas vodi skozi vrsto pozivov. Vestno izpolnite obrazce in odgovorite sistemu AI. Ta AI je zelo klepetav. Medtem ko ste v preteklosti morda uporabljali običajen računalniški sistem obrazcev, je ta različica AI bolj podobna interakciji s človeškim posrednikom. Ne povsem, a dovolj, da bi lahko skoraj verjeli, da je človek na drugi strani te dejavnosti.

Potem ko se po svojih najboljših močeh "razpravlja" o vaši zahtevi s tem AI, vas na koncu obvesti, da zahteva za posojilo žal ni odobrena. Nekako te zaloti, da se zdi, da se AI opravičuje, kot da bi AI želel odobriti posojilo, vendar ti zlobni ljudje, ki nadzorujejo banko, AI tega ne dovolijo. Za moje poročanje o tem, kako zavajajoča so tovrstna domnevna opravičila AI, glejte povezava tukaj.

Nimate pojma, zakaj so vas zavrnili. AI ne ponuja nobene razlage. Morda se je AI zmotil ali zamočil v svojih izračunih. Še huje, predpostavimo, da je AI pri odločanju o posojilu uporabil nekaj zelo vprašljivih dejavnikov, kot sta vaša rasa ali spol. Vse, kar veste, je, da se je zdelo, da ste zapravljali čas in medtem predali tono zasebnih podatkov AI in banki. Njihov AI vas je premagal.

To bi bilo označeno kot primer asimetrije AI.

Ti si bil proti banki. Banka je bila oborožena z AI. Niste bili enako oboroženi. Imeli ste svojo pamet in svojo šolo trde udarne modrosti, vendar brez umetne inteligence v vašem zadnjem žepu. Um proti stroju. Žal je v tem primeru zmagal stroj.

kaj naj narediš

Prvič, na družbeni osnovi se moramo zavedati, da ta asimetrija AI narašča in postaja skoraj vseprisotna. Ljudje se srečujemo z umetno inteligenco v vseh sistemih, s katerimi dnevno komuniciramo. Včasih je AI edini element, s katerim sodelujemo, kot na primer v tem primeru glede zahteve za posojilo. V drugih primerih je lahko človek v zanki, ki se zanaša na AI, da mu pomaga pri izvajanju določene storitve. Za posojilo bi lahko banka zahtevala, da govorite s človeškim agentom namesto interakcije z umetno inteligenco, vendar za to človeški agent uporablja računalniški sistem za dostop do umetne inteligence, ki vodi človeškega agenta med postopkom zahtevka za posojilo (in skoraj vedno ste prepričani, da se človeški agent obnaša, kot da je zaprt, tako da mora strogo storiti vse, kar jim AI »ukaže, naj naredijo«).

Kakor koli že, AI je še vedno v mešanici.

Drugič, poskušati moramo zagotoviti, da se asimetrija umetne inteligence izvaja vsaj na etični osnovi umetne inteligence.

Dovolite mi, da razložim to na videz nenavadno pripombo. Vidite, če smo lahko do neke mere prepričani, da umetna inteligenca deluje na etično neoporečen način, bomo morda imeli nekaj tolažbe glede asimetrije, ki je v igri. Na nekoliko analogni, a prav tako ohlapni podlagi bi lahko rekli, da če bi moj odnos s prvim trgovcem v trgovini s pnevmatikami imel določene stroge etične smernice in bi jih uveljavljal, mi morda ne bi povedali zgodbe, ki so mi jo povedali, ali vsaj jaz morda mi ne bi bilo treba takoj odkriti, ali se mi govori velika zgodba.

Več o etiki umetne inteligence bom razložil čez trenutek.

Tretjič, poiskati bi morali načine za zmanjšanje asimetrije AI. Če bi imeli AI, ki bi bil na vaši strani in si prizadeval biti vaš trener ali zaščitnik, bi morda lahko uporabili to AI za nekaj nasprotnega udarca z drugo AI, s katero se spopadate. Kot pravijo, je včasih zelo smiselno boriti se z ognjem.

Preden se lotimo še nekaj mesa in krompirja o divjih in volnatih vidikih, ki so podlaga za asimetrijo umetne inteligence, določimo nekaj dodatnih osnov o zelo bistvenih temah. Na kratko se moramo potopiti v etiko umetne inteligence in zlasti pojav strojnega učenja (ML) in globokega učenja (DL).

Morda se nejasno zavedate, da je eden najglasnejših glasov teh dni na področju umetne inteligence in celo zunaj področja umetne inteligence zahtevanje večjega videza etične umetne inteligence. Oglejmo si, kaj pomeni sklicevanje na etiko umetne inteligence in etično umetno inteligenco. Poleg tega bomo raziskali, kaj mislim, ko govorim o strojnem učenju in poglobljenem učenju.

En poseben segment ali del etike umetne inteligence, ki je bil deležen velike medijske pozornosti, je umetna inteligenca, ki kaže nenaklonjene pristranskosti in neenakosti. Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Čez trenutek bom z vami delil nekaj splošnih načel, na katerih temelji etika umetne inteligence. Tu in tam je veliko tovrstnih seznamov. Lahko bi rekli, da še ni enotnega seznama univerzalne privlačnosti in soglasja. To je žalostna novica. Dobra novica je, da so vsaj na voljo seznami etike AI in so ponavadi precej podobni. Vse skupaj nakazuje, da z nekakšno obliko utemeljene konvergence iščemo pot do splošne skupnosti tega, iz česar je sestavljena etika umetne inteligence.

Najprej na kratko pokrijmo nekaj splošnih etičnih predpisov umetne inteligence, da ponazorimo, kaj bi moralo biti ključnega pomena za vsakogar, ki ustvarja, uporablja ali uporablja AI.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da se "samo koderji" ali tisti, ki programirajo umetno inteligenco, upoštevajo pojme etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

Prepričajmo se tudi, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli super inteligentno AI, je možno, da bi bila taka AI na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne AI kot možnosti glej pokritost tukaj).

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vrnimo se k našemu fokusu na asimetrijo AI.

Kratek povzetek mojih zgoraj omenjenih treh priporočil je naslednji:

1) Zavedajte se, da asimetrija AI obstaja in raste

2) Prizadevajte si zagotoviti, da je asimetrija umetne inteligence omejena z etiko umetne inteligence

3) Poskusite se boriti z AI Asymmetry tako, da se oborožite z AI

Slednjo točko gašenja z ognjem si bomo podrobneje ogledali.

Predstavljajte si, da ste pri iskanju posojila imeli AI, ki je delala na vaši strani. To je morda aplikacija na vašem pametnem telefonu, ki temelji na umetni inteligenci in je bila zasnovana za pridobivanje posojil. To ni aplikacija ene od bank, temveč je neodvisno zasnovana za delovanje v vašem imenu. Tovrstne aplikacije sem podrobno opisal v svoji knjigi o botih angelov varuhov, ki temeljijo na AI, glej povezava tukaj.

Ko zaprosite za posojilo, se lahko obrnete na to aplikacijo, ko vas drugi AI vodi skozi postopek prijave. Ta dva sistema AI sta različna in popolnoma ločena drug od drugega. AI na vašem pametnem telefonu je bil "izurjen", da pozna vse trike, ki jih uporablja drugi AI. Kot taki bodo odgovori, ki jih vnesete v umetno inteligenco banke, temeljili na tem, kar vam svetuje vaša umetna inteligenca.

Druga različica je sestavljena iz tega, da vaš AI odgovarja na vprašanja, ki jih postavlja drugi AI. Kolikor lahko drugi AI ugotovi, ste vi tisti, ki vnašate odgovore. Namesto tega morda zgolj opazujete, kako potekajo interakcije med dvema spopadajočima se sistemoma AI. To vam omogoča, da vidite, kaj ponuja vaš AI. Poleg tega lahko potencialno prilagodite svoj AI glede na to, ali ste zadovoljni s tem, kar vaš AI počne v vašem imenu.

Predvideval sem, da se bomo vsi postopoma oborožili z umetno inteligenco, ki bo na naši strani v teh situacijah asimetrije umetne inteligence.

Razmislimo, kako se bo to izšlo.

To so temeljni vplivi na pogoj asimetrije AI, ki sem jih predstavil:

  • Izravnava asimetrije AI v vašo korist (popelje vas navzgor, v upanju, da boste dosegli enake ravni)
  • Spodbujanje asimetrije AI v vašo korist (dvigne vas v prednost, ko ste že enaki)
  • Povečanje asimetrije AI v vašo izjemno korist (pridobivanje večje prednosti, ko je že v prednosti)
  • Nenamerno znižanje asimetrije AI v vašo nemilost (ko ste imeli že obstoječo prednost in vas je umetna inteligenca nenamerno potegnila navzdol)

Čas je, da se globoko poglobite v te zanimive možnosti.

Sploščitev asimetrije AI v vašo korist

Izenačitev asimetrije umetne inteligence je najočitnejši in najpogosteje razpravljani premislek, in sicer, da bi se oborožili z umetno inteligenco, da bi poskusili iti od pete do pete z umetno inteligenco, ki jo uporablja druga stran v obravnavani zadevi. Nastavitev AI Asymmetry se je začela tako, da ste bili v izrazito slabšem položaju. V svojem kotu niste imeli AI. Bil si na nizki strani stvari. Druga stran je imela AI in bili so na višjem terenu.

Tako ste se modro oborožili z umetno inteligenco, ki bi vas in druge umetne inteligence postavila v enake pogoje.

Ena pomembna in morda presenetljiva niansa, ki jo je treba upoštevati, je, da ne bo vedno tako, da bodo uporabljeni sistemi umetne inteligence enakomerno uravnotežili drug drugega. Lahko se oborožite z umetno inteligenco, ki je, če rečemo, manj močna od umetne inteligence, ki jo uporablja druga stran. V tem primeru ste k sreči povečali svoj položaj na slabši strani, čeprav zdaj niste povsem enaki nasprotni strani in njeni AI.

Zato temu pravim sploščitev asimetrije AI. Morda boste lahko zmanjšali vrzel, vendar je ne boste popolnoma zapolnili. Končni cilj bi bil uporaba AI na vaši strani, ki vas bo pripeljala do popolnoma enake drže. Stvar je v tem, da je to lahko izvedljivo ali pa tudi ne. Druga stran bi verjetno imela res drago umetno inteligenco, vi pa poskušate tekmovati z varčno različico umetne inteligence za mame in starše.

Ni vsak AI enak.

Spodbujanje asimetrije AI v vašo korist

O tej okoliščini se danes ne razpravlja veliko, deloma zato, ker je trenutno redka. Nekoč bo to nekaj običajnega. Predpostavimo, da ste brez umetne inteligence in kljub temu na enakem položaju s stranjo, ki ima umetno inteligenco.

Dobro zate.

Ljudje imamo svojo pamet glede njih.

Toda morda boste želeli pridobiti prednost pred drugo stranjo. Oborožitev z umetno inteligenco vas popelje na višjo raven. Zdaj imate v rokah svojo pamet in svojo zanesljivo umetno inteligenco. Pridobili ste prednost, ki bo verjetno prevladala nad AI druge strani.

Povečanje asimetrije AI v vašo izjemno korist

Z uporabo podobne logike kot vidik spodbujanja asimetrije AI v vašem imenu, predpostavite, da ste že nad zmožnostmi druge strani, ki uporablja AI. Ergo, ne začnete v enaki drži. Na srečo ste že na zgornji strani.

Morda si boste vseeno želeli zagotoviti še večjo prednost. Zato se oborožite z AI. To dvigne vašo glavo in ramena nad drugo stranjo.

Nenamerno zniževanje asimetrije AI v vašo nemilost

Dvomim, da želite slišati o tej možnosti. Prosimo, zavedajte se, da ukvarjanje z AI niso samo vrtnice in sladoledne torte.

Lahko se zgodi, da ko se oborožite z AI, dejansko spodkopavate sebe. Če ste bili že manj kot AI na drugi strani, ste zdaj v globlji luknji. Če ste bili v enakih pogojih, ste zdaj na slabšem. Če ste bili nad drugo stranjo, ste zdaj enaki ali pod njo.

Kako se je to lahko zgodilo?

Morda boste šokirani, ko pomislite, da vas bo umetna inteligenca, ki jo sprejmete, zapeljala na napačno pot. To bi se zlahka zgodilo. Samo zato, ker imate AI v svojem kotu, še ne pomeni, da je uporaben. Morda uporabljate AI in ponuja nasvete, ki se vam ne zdijo nujno primerni, vendar se vseeno odločite, da ga boste uporabili. Vaša takratna logika je bila, da ste se lahko zanesli nanjo, ker ste se potrudili pridobiti AI.

AI, ki ga uporabljate, je morda okvarjen. Ali pa je morda slabo zasnovan. Obstaja vrsta razlogov, zakaj vam umetna inteligenca morda daje dvoumne nasvete. Tisti, ki slepo sprejmejo vse, kar jim umetna inteligenca reče, se bodo zagotovo znašli v svetu prizadetosti. V svoji kolumni sem obravnaval takšne stiske, kot npr povezava tukaj.

Bistvo je, da ni nobenega zagotovila, da boste zmagali v igri AI Asymmetry samo zato, ker se oborožite z AI.

Morda boste dosegli enake konkurenčne pogoje. Morda boste pridobili prednost. In na žalost morate biti previdni, saj se lahko zgodi, da se boste spustili navzdol, ko ste oboroženi z AI.

Do neke mere je zato etika umetne inteligence in etična umetna inteligenca tako ključna tema. Navodila etike umetne inteligence nas spodbujajo, da ostanemo pozorni. Tehnologi umetne inteligence se lahko včasih ukvarjajo s tehnologijo, zlasti z optimizacijo visoke tehnologije. Ni nujno, da upoštevajo širše družbene posledice. Za ustvarjanje ustrezne umetne inteligence je bistvenega pomena imeti miselnost o etiki umetne inteligence, ki je vključena v razvoj in uporabo umetne inteligence.

Poleg uporabe etike umetne inteligence obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot začasna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Pravzaprav vnaprej opozarjajo, da bomo, če uveljavimo nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z omejevanjem napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti. Oglejte si na primer moje poročilo na povezava tukaj in povezava tukaj.

Stavim, da si na tem mestu te pomembne razprave želite nekaj ilustrativnih primerov, ki bi lahko predstavili to temo. Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Vidite, kot strokovnjak za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, kaj osvetli glede asimetrije umetne inteligence, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in asimetrija umetne inteligence

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Upam, da je to zadostno število opozoril, ki bi podlagale to, kar bom povedal.

Skicirajmo scenarij, ki prikazuje asimetrijo umetne inteligence.

Razmislite o na videz nepomembnem vprašanju, kje bodo samovozeči avtomobili romali po potnike. Zdi se, da je to nadvse neškodljiva tema.

Sprva predpostavimo, da bodo samovozeči avtomobili z umetno inteligenco vozili po celih mestih. Vsakdo, ki želi zaprositi za vožnjo s samovozečim avtomobilom, ima v bistvu enake možnosti, da ga izbere. Postopoma začne umetna inteligenca predvsem ohranjati samovozeče avtomobile v samo enem delu mesta. Ta del je večji zaslužek in AI je bil programiran tako, da poskuša in maksimiranje prihodke kot del uporabe v širši skupnosti (to poudarja miselnost, na kateri temelji optimizacija, in sicer osredotočanje na samo eno določeno meritev in zanemarjanje drugih ključnih dejavnikov v procesu).

Izkazalo se je, da je manj verjetno, da bi se člani skupnosti v revnih delih mesta lahko zapeljali s samovozečim avtomobilom. To je zato, ker so bili samovozeči avtomobili bolj oddaljeni in so romali v višje prihodkovni del mesta. Ko pride zahteva iz oddaljenega dela mesta, bi imela vsaka druga zahteva iz bližje lokacije višjo prednost. Sčasoma je razpoložljivost samovozečega avtomobila na katerem koli mestu, razen v bogatejšem delu mesta, skoraj nemogoča, kar je hudo za tiste, ki so živeli na teh območjih, ki so zdaj stradani z viri.

Izginjajo hvaljene sanje o mobilnosti za vse, ki naj bi jih oživili samovozeči avtomobili.

Lahko bi trdili, da je umetna inteligenca v celoti pristala na obliki statistične in računalniške pristranskosti, ki je podobna obliki proxy diskriminacije (pogosto imenovane tudi posredna diskriminacija). Zavedaj se, da umetna inteligenca ni bila programirana za izogibanje tem revnejšim soseskam. Naj bo to jasno v tem primeru. Ne, namesto tega je bil zasnovan zgolj za optimizacijo prihodkov, kar je na videz sprejemljiv cilj, vendar je bilo to storjeno, ne da bi razvijalci umetne inteligence razmišljali o drugih možnih posledicah. Ta optimizacija je nato nevede in neizogibno pripeljala do neželenega rezultata.

Če bi vključili vidike etike umetne inteligence kot del svoje optimizacijske miselnosti, bi morda že prej ugotovili, da bi lahko preprečili tako hude rezultate, če ne bi izdelali umetne inteligence, da bi se spopadla s tovrstno prevelikostjo samo pri eni meritvi. Za več o tovrstnih težavah, ki jih bo verjetno povzročilo široko sprejetje avtonomnih vozil in samovozečih avtomobilov, si oglejte moje poročanje na tukaj povezava, ki opisuje študijo o teh temah, ki jo je vodil Harvard in sem soavtor.

V vsakem primeru predpostavimo, da je konj že iz hleva in da situacija ni takoj primerna za krovne rešitve.

Kaj lahko storijo tisti, ki želijo uporabljati te samovozeče avtomobile?

Najbolj očiten pristop bi bil sodelovanje z voditelji skupnosti, da bi proizvajalca avtomobilov ali samovozeče tehnološko podjetje ponovno premislili o tem, kako so vzpostavili AI. Morda izvajati pritisk na kakršne koli licence ali dovoljenja, ki so bila podeljena za uporabo teh samovozečih avtomobilov v tem mestu ali mestu. To so verjetno izvedljiva sredstva za doseganje pozitivnih sprememb, čeprav lahko traja nekaj časa, preden bodo ta prizadevanja obrodila sadove.

Drug vidik bi bil, da se oborožite z AI.

Predstavljajte si, da je nekdo premeteno izdelal aplikacijo, ki temelji na AI, ki deluje na vašem pametnem telefonu in se ukvarja z AI proizvajalca avtomobilov ali upravljavca voznega parka, ki sprejema zahteve za vožnje. Lahko se zgodi, da umetna inteligenca, ki jo uporabljate, izkorišča ključne elemente druge umetne inteligence, tako da vaša zahteva po samovozečem avtomobilu dobi večjo prednost. Upoštevajte, da ne trdim, da se dogaja karkoli nezakonitega, temveč da je bila AI na vaši strani razvita na podlagi odkritih "lastnosti" ali celo vrzeli v drugi AI.

zaključek

Zgodba o nesramnem boju proti umetni inteligenci upravljavca voznega parka samovozečih avtomobilov z oborožitvijo z umetno inteligenco sproža dodatne polemike in pomisleke glede etike umetne inteligence.

Na primer:

  • Če lahko ena oseba uporabi umetno inteligenco, da ji da prednost pred umetno inteligenco nekega drugega sistema, kako daleč lahko gre to v smislu morebitnega prestopanja meja etike umetne inteligence (prepričam samovozeče avtomobile, da pridejo k meni in mojim prijateljem, z izključitvijo vseh drugih)?
  • Poleg tega, ali obstaja kakršen koli videz etičnega premisleka umetne inteligence, da če nekdo ve za umetno inteligenco ali je oborožen z njo za boj z drugo umetno inteligenco, naj bodo tisti preostali ljudje, ki nimajo te umetne inteligence za uravnoteženje, nekako opozorjeni na umetno inteligenco in se lahko oborožijo temu primerno tudi?

Na koncu nas vse to popelje v prihodnost, ki se zdi srhljiva, sestavljena iz oboroževalne tekme z umetno inteligenco. Kdo bo imel AI, ki ga potrebuje za preživetje in kdo ne? Bo vedno obstajala še ena umetna inteligenca, ki bo sprožila potrebo po umetni inteligenci za protiutež?

Carl Sagan, cenjeni znanstvenik, je povedal to modro modrost o posebej kataklizmičnih oboroževalnih tekmah: »Jedrska oboroževalna tekma je kot dva zaprisežena sovražnika, ki stojita do pasu v bencinu, eden s tremi vžigalicami, drugi s petimi.«

Odločno si moramo prizadevati, da naše noge ostanejo suhe in naše glave čiste, ko gre za vedno grozečo oboroževalno tekmo z umetno inteligenco.

Vir: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- iz-palice/