Etika umetne inteligence Previdno ocenjevanje, ali je ponujanje pristranskosti umetne inteligence lov na nagrade za ulov in lovljenje etično zlobnih popolnoma avtonomnih sistemov preudarno ali jalovo

Zaželeno: Lovci na pristranskost AI.

To bi lahko bil sodoben oglas, ki ga boste začeli pojavljati na kanalih družbenih medijev in se pojavljati v različnih spletnih objavah delovnih mest. To je relativno nov koncept ali vloga. S seboj nosi polemiko. Nekateri goreči verniki vneto trdijo, da je to zelo smiselno in da bi se moralo dogajati ves čas, medtem ko si drugi precej živčno delajo nekaj resnega praskanja po glavi in ​​niso tako prepričani, da je to dobra ideja.

Bistvo vloge je izločanje skritih pristranskosti ali vgrajenih diskriminatornih praks iz umetne inteligence. Na pomoč priskočijo nestrpni in nekdanji umetna inteligenca povsem pristranski lovci. Verjetno bi bili računalniško podkovani lovci na glave. Še bolj, upajmo, da je potopljen v globine zmogljivosti AI.

Ima pištolo, bo potoval in lahko prek umetne inteligence, ki je usposobljeno za natančno streljanje, uspe razkriti te neprijetne in neugodne pristranskosti umetne inteligence.

To odpira vrsto kočljivih vprašanj o smiselnosti izvajanja takšne taktike, ko gre za odkrivanje pristranskosti umetne inteligence. Kot bom kmalu razpravljal, vedite, da je pojav umetne inteligence s seboj prinesel tudi pojav pristranskosti umetne inteligence. Hudournik pristranskosti AI. Za moje stalno in obsežno pokrivanje etičnosti umetne inteligence in etične umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Kako odkrijemo, da ima določen sistem AI pristranskosti?

To lahko zaupate razvijalcem umetne inteligence, ki so izdelali umetno inteligenco. Stvar je v tem, da so morda tako zabredli v pristranskosti, da sami ne morejo prepoznati pristranskosti v svoji izmišljeni AI. Vse se jim zdi dobro. Lahko pa so tako navdušeni nad umetno inteligenco in imajo občutek samoponosa nanjo, da bi bilo, če bi jo nato morali kritično preučiti za pristranskost, težko in resnično žalostno. Veliko drugih takšnih razlogov se lahko zdi, da bi razvijalci umetne inteligence prevzeli to nalogo, vključno s pomanjkanjem veščin za odkrivanje vdelanih pristranskosti, pomanjkanjem časa v projektu za to itd.

V redu, torej najemite zunanje svetovalce, da namesto vas opravijo umazano delo. Izkazalo se je, da bodo svetovalci z veseljem pregledali vašo umetno inteligenco glede pristranskosti in vam za to zaračunali lep peni (veliko, veliko penijev). Zavedajte se, da morate za njih plačati, da bodo dosegli hitrost vašega sistema AI. Nato jih morate nagovoriti, da brskajo naokoli, kar lahko vzame nepopisno število dragih delovnih ur. Uporaba svetovalcev je možnost, če imate proračun za to.

V morebitno »vrzel«, kako najti te zahrbtne pristranskosti umetne inteligence, pridejo junaški in drzni lovci na glave pred pristranskostmi umetne inteligence.

Ponavadi jih ne plačate vnaprej. Poskušajo najti pristranskosti umetne inteligence ob svojem času in morajo pri tem plačati svoje račune. Le če uspešno odkrijejo pristranskosti, dobijo plačilo. Predvidevam, da bi lahko brez težav trdili, da je na primeren način razmišljanja to običajna definicija lovca na glave. Bodite plačani, če vam uspe. Ne bodite plačani, če niste uspešni. Pika, konec zgodbe.

Bounty programi obstajajo že vsaj od časa Rimljanov in zato lahko domnevamo, da delujejo, saj so se vsa ta leta uspešno obdržali kot praksa.

Tukaj je fascinanten kos zgodovinskih zanimivosti za vas. V času Rimskega imperija v mestu Pompeji naj bi bilo objavljeno sporočilo, da so potrebni lovci na glave, da najdejo bakren lonec, ki je izginil iz majhne trgovine. Nagrada za vrnitev bakrenega lonca je bila impresivna nagrada petinšestdeset bronastih kovancev. Žal moramo povedati, da ne vemo, ali je kakšen lovec na glave našel bakren lonec in zahteval bronaste kovance, vemo pa, da se je lov na glave zagotovo nadaljeval od tistih davnih časov.

V sodobnejšem času se morda zavedate, da so v osemdesetih letih prejšnjega stoletja ponujali nekaj pomembnih nagrad za iskanje računalniških hroščev ali napak v standardnih programskih paketih, nato pa je Netscape v devetdesetih letih prejšnjega stoletja izrazito ponudil nagrado za iskanje hroščev v svojem spletnem brskalniku. (postal je eno najvidnejših podjetij tistega dne, ki je to storilo). Google in Facebook sta se od leta 1980 oziroma 1990 odločila za lov na nagrade za napake. Nekaj ​​let pozneje, leta 2010, se je v akcijo vključilo celo Ministrstvo za obrambo ZDA (DoD) z nagrado »Vdremi v Pentagon« (upoštevajte, da je bila javno osredotočena nagrada za hrošče, najdene na različnih spletnih mestih, povezanih z Ministrstvom za obrambo, in ne v obrambni kritični sistemi).

Poglobimo se v temo nagrade za hrošče. Zavedam se, da želim v tej razpravi v glavnem govoriti o pristranskosti umetne inteligence pri lovu na glave, vendar obstaja nekaj precej pomembnih vzporednic s areno nagrad za hrošče.

Nekateri so očitno zmedeni, da bi katero koli podjetje želelo ponuditi nagrado za iskanje hroščev (ali v tem primeru pristranskosti AI) v njihovih sistemih.

Na prvi pogled se zdi, da je to strategija vrste "ti to zahtevaš". Če svetu sporočite, da pozdravljate tiste, ki morda poskušajo najti luknje v vaši programski opremi, se zdi enako, kot če bi vlomilcem rekli, naj kar naprej poskušajo vlomiti v vašo hišo. Tudi če že verjamete, da imate precej dober protivlomni sistem in da nihče ne bi smel priti v vaš varovan dom, si predstavljajte, da prosite in celo prosite vlomilce, naj vsi stopijo v vaš kraj bivanja in preverijo, ali lahko poči vanj. Oh, težave, ki si jih tkemo sami.

Enako bi lahko rekli za zahtevo po lovcih na glave, da najdejo pristranskosti v vaši AI.

Prvič, to morda pomeni, da že verjamete ali celo popolnoma veste, da ima vaša umetna inteligenca pristranskost. To je šokantno odkrito implicitno priznanje, ki bi ga le redki bili pripravljeni dati in bi se lahko izognilo negativnim posledicam.

Drugič, ne veste zagotovo, kaj bi ti lovci na glave lahko naredili. Lahko bi se odločili, da bi celemu svetu povedali, da so našli pristranskost v vaši AI. Domnevamo, da bi to lahko izgubilo nagrado, čeprav bi nekateri morda uživali v pozornosti ali si prizadevali okrepiti svoj status za pridobitev svetovalnih nastopov in drugih možnosti za ustvarjanje prihodkov. Morda bi bilo povsem altruistično. Morda gre za obliko AI aktivizma. Lahko nadaljujem.

Tretjič, v celotni zadevi bi lahko prišlo do zahrbtnega zasuka. Lovec na glave, ki trdi, da išče pristranskosti umetne inteligence, morda hudičevo brska naokoli, da bi našel načine za napad na vaš sistem umetne inteligence. Vse skupaj je šarada, da se na koncu lotimo resnega kibernetskega napada. Morda ste domnevali, da skušajo pomagati, medtem ko v svojih srcih nosijo krivico. Žalostno, a možno.

Četrtič, glede te zadeve se lahko še bolj zvito zmotimo. Lovec na glave najde nekaj neprijetnih pristranskosti umetne inteligence, ki lahko povzročijo tožbe. Nagrada je določena vsota dolarjev, ki jo bomo imenovali X. Namesto da bi zahteval nagrado, lovec na glave izvaja nekakšno nenavadno provokacijo z izsiljevalsko programsko opremo. Če lovcu na glave plačate znesek desetkrat X ali morda celo mejo, vam bo povedal o pristranskosti AI. Za odgovor imate čas do nedelje zvečer do polnoči. Po tem času bodo pristranskosti AI razkrite vsem. Joj, v kakšni podli stiski.

Petič, najnovejši so tisti tako imenovani »hack to return« kibernetski prevaranti, ki se potem, ko so ukradli kup spletnega denarja, odločijo pokesati in vrniti del nezakonito pridobljenega plena, ki so ga zgrabili. Podjetje, ki dobi svoj denar delno vrnjen, je nato pripravljeno upoštevati preostali ukradeni znesek kot naknadno nagrado, nagrajeno tatovom. Zdi se, kot da vsi »zmagajo«, ker se večina sredstev vrne, medtem ko kibernetski prevaranti niso zakonito preganjani, poleg tega pa dobijo še piratsko nagrado. Je to preudarno ali zahrbtno ohranjanje nezakonitih dejanj?

Zavedam se, da nekateri izmed vas morda pravite, da nihče ne bi smel izdati umetne inteligence, ki ima v sebi kakršne koli pristranskosti. Zdi se, da bi to rešilo celotno dilemo o tem, ali uporabiti lovce na glave, ki so pristranski AI ali ne. Samo ne spravi se v situacijo nagrade. Prepričajte se, da vaši razvijalci umetne inteligence ravnajo pravilno in ne dovolijo pristranskosti umetne inteligence v svojih sistemih umetne inteligence. Morda uporabite svetovalce za dvojno preverjanje. V bistvu naredite vse, kar morate storiti, da se izognete razmišljanju o teh lovcih na glave, ki so pristranski zaradi umetne inteligence, ali jih prosite, naj pridejo k mizi.

Da, to bi se zdelo povsem smiselno. Težava je v tem, da je tudi nekoliko zasanjana. Kompleksnost mnogih sistemov umetne inteligence je tako velika, da bo poskušanje zagotoviti, da se ne pojavi niti kanček pristranskosti umetne inteligence, težko. Poleg tega so nekateri sistemi AI namenoma zasnovani za prilagajanje in »učenje« sproti. To pomeni, da bi lahko v neki prihodnji točki umetna inteligenca, ki ste jo zasnovali in za katero se sprva pretvarjamo, da je popolnoma čista in brez pristranskosti, težila k utelešenju pristranskosti (tega ne mislim na antropomorfen način, kot bom razložil naprej, ko bomo pojdite na to temo).

Tisti, ki dajejo prednost lovu na nagrade za hrošče programske opreme, so nagnjeni k trditvi, da je smiselno ponujati takšne nagrade. Lahko razmislimo o njihovi utemeljitvi in ​​ugotovimo, ali velja tudi za področje pristranskosti AI.

Zagovorniki nagrad za hrošče poudarjajo, da namesto da bi se poskušali pretvarjati, da v vašem sistemu ni nobenih lukenj, zakaj ne bi spodbujali iskanja lukenj, in to na "nadzorovan" način? V nasprotju s tem bi lahko brez takšnega truda za nagrado samo upali in molili, da po naključju nihče ne bo našel luknje, toda če namesto tega ponudite nagrado in tistim, ki najdejo luknjo, poveste, da bodo nagrajeni, ponuja priložnost, da nato luknjo utrdite sami in nato preprečite drugim, da bi jo na skrivaj našli pozneje.

Enako bi lahko rekli za primer uporabe pristranskosti AI. Če ponudite zadostno nagrado, upajmo, da vas bodo lovci na glave opozorili na odkritje pristranskosti umetne inteligence. Nato se lahko sorazmerno tiho in odmerjeno spopadete s pristranskostmi AI. To bi lahko pozneje preprečilo veliko večjo in bolj zastrašujočo težavo, in sicer, da nekdo drug najde pristranskost AI v vaši AI in o tem kriči do neba.

Na splošno bo podjetje, ki želi omogočiti lov na nagrade za hrošče, vzpostavilo pravilnik o razkrivanju ranljivosti (VDP). VDP navaja, kako je treba hrošče najti in prijaviti podjetju, skupaj s tem, kako bo lovcu zagotovljena nagrada ali nagrada. Običajno bo VDP zahteval, da lovec na koncu podpiše pogodbo o nerazkrivanju podatkov (NDA), tako da drugim ne bo razkril, kaj je našel.

Zamisel o uporabi NDA z lovci na glave je nekaj polemik. Čeprav je za podjetje, ki ponuja nagrado, morda smiselno, da želi zamolčati ugotovljene izpostavljenosti, naj bi to tudi dušilo splošno ozaveščenost o takih hroščih. Verjetno bi, če bi bilo dovoljeno govoriti o napakah programske opreme, to potencialno pripomoglo k varnosti drugih sistemov v drugih podjetjih, kar bi nato povečalo njihovo izpostavljenost. Nekateri lovci na glave nočejo podpisati pogodbe o nerazkrivanju, deloma zaradi želje javnosti in deloma zato, ker poskušajo prikriti svojo lastno identiteto. Upoštevajte tudi, da se vidik NDA običajno ne pojavi, dokler lovec ne trdi, da je našel hrošča, namesto da bi ga zahteval vnaprej.

Nekateri VDP določajo, da NDA velja samo za omejeno časovno obdobje, kar podjetju omogoča, da najprej najde rešitev za navidezno luknjo in nato omogoči širše razkritje o tem. Ko je luknja zamašena, podjetje dovoli sprostitev NDA, tako da lahko preostali svet izve za napako. Običajni čas do rešitve napak, ki jih lovijo nagrade, naj bi bil približno 15–20 dni, če jih želi podjetje takoj odstraniti, medtem ko se v drugih primerih lahko razteza na 60–80 dni. Kar zadeva plačilo lovcu na glave, tako imenovani čas do plačila, potem ko je bilo preverjeno, da luknja dejansko obstaja, naj bi bila plačila glave običajno v približno 15-20 dneh za manjše primere in približno 50-60 dneh. dni za večje primere (to so nenehno spreminjajoče se industrijske indikacije in so omenjene le kot ponazoritev).

Ali bi bilo treba od lovcev na glave, ki so pristranski zaradi umetne inteligence, zahtevati, da sodelujejo pri VDP in obravnavajo NDA?

Na to vprašanje lahko dobite da in ne. Da, nekatera podjetja bi morala iti po tej poti. Ne, ni nujno, da se boste odločili za to pot. Dejavniki vključujejo velikost in naravo umetne inteligence, potencial morebitnih vpletenih izpostavljenosti pristranskosti umetne inteligence in kopico drugih etičnih, pravnih in poslovnih vidikov, ki pridejo v poštev.

Dodal bi lahko, da je vzpostavitev lova na glave za pristranskost umetne inteligence vaše umetne inteligence veliko težja naloga, kot bi morda domnevali na prvi pogled.

Začeli bomo z izjemno možnostjo, da vas bodo preplavili lovci na glave, ki so predsodki AI.

Trenutno bi težko našli veliko ljudi, ki bi imeli takšno vizitko. Ni jih veliko naokoli. V tem pogledu so časi divjega zahoda. Toda če se ideja o pristranskosti umetne inteligence pri lovu na glave ujame, še posebej, ko so nagrade obilne in bogato nagrajene, lahko stavite, da se bodo vsi potopili v bazen lova na pristranskosti.

Ali želite, da v vašem sistemu umetne inteligence preganjajo raznovrstne pokvarjenosti? Dobili boste nekaj uporabnikov, ki so dejansko strokovnjaki za tovrstne stvari. Dobili boste druge jemalce, ki so amaterji in bi lahko naredili nered ali jokali. Naslednje, kar veste, je, da bo vsakdo, ki zna črkovati »umetno inteligenco«, prišel iskopat v vašem zlatem rudniku sistema AI za tiste dragocene zlate kepe, povezane z umetno inteligenco. Prihaja zlata mrzlica. To morda ne bo dobro zate.

Natančno boste morali preučiti prispevke lovca na glave. V prijavljenih trditvah bo veliko "hrupa", v smislu, da veliko domnevnih pristranskosti umetne inteligence ne obstaja, čeprav lovec na glave vztraja, da so nekatere našli. Predstavljajte si, koliko dela bodo vaše lastne ekipe AI zahtevale, da preučijo zahtevke za nagrado, raziščejo veljavnost vsake od njih in nato morebiti nadaljujejo z lovcem na glave o tem, ali je bilo zlato odkrito ali ne.

Nekateri bi trdili, da je to še en razlog, da vse naredite sami. Morda boste neizogibno odkrili, da nagrada prinaša več težav, kot je bila vredna.

Tukaj je še eno vprašanje za razmislek. Kako bodo lovci na glave vedeli, kako izgleda pristranskost AI? V bistvu, brez nekega videza, kaj je treba iskati, bi lahko vsak sijoč kamen trdil, da prikazuje pristranskost AI v zaznanem rudniku zlata AI, ki se izkopava.

Recimo, da ste v dneh starega zahoda ponudili nagrado za ujetje Billyja Kida (slavnega izobčenca). Če ste to storili in niste vključili slike, kako je Billy videti, si predstavljajte število lovcev na glave, ki bi lahko v šerifovo pisarno zvlekli nekoga, za katerega so upali ali mislili, da je Billy the Kid. Morda vas bodo preplavili lažni Billyji. To je slabo, saj bi verjetno morali pogledati vsakega posebej, postavljati pretresljiva vprašanja in poskušati ugotoviti, ali je bila oseba res Billy ali ne.

Bistvo je, da bi bilo pametno poskusiti razjasniti, iz česa po vašem mnenju sestavljajo pristranskosti umetne inteligence. To zahteva kalibracijo Zlatolaska. Nočete biti tako omejeni, da bi lovci na glave spregledali pristranskost AI samo zato, ker ne ustrezajo vaši določeni definiciji, in tudi ne želite, da kričijo "Eureka!" pri vsakem koščku pristranskosti AI, ki ga slučajno najdejo.

Potrebovali boste ravno pravo zlatolasko ravnotežje glede tega, iz česa so sestavljene pristranskosti umetne inteligence, in tako zagotovili po možnosti jasna navodila za to.

Velik del tega umetne inteligence pristranskosti lova na glave bo osredotočen na sisteme strojnega učenja (ML) in globokega učenja (DL), ki temeljijo na umetni inteligenci. To je smiselno, saj je prodornost ML/DL vse večja, poleg tega pa se zdi, da ima nekaj najverjetnejših izzivov zajemanja neupravičenih pristranskosti AI.

Ti raziskovalci ugotavljajo, kako pomembno je lahko umetna inteligenca pristransko prizadevanje za lov na nagrade, zlasti v kontekstu ML/DL: »Sčasoma so skupnosti programske opreme in varnosti razvile 'nagrade za napake', da bi spremenile podobno dinamiko med razvijalci sistemov in njihovimi kritiki. (ali hekerji) k bolj interaktivnim in produktivnim ciljem. Upamo, da se bo z namernim povabilom zunanjih strank, da najdejo napake v programski ali strojni opremi v njihovih sistemih, in pogosto z zagotavljanjem denarnih spodbud za to, razvil bolj zdrav in hitreje odziven ekosistem. Naravno je, da skupnost ML razmisli o podobnem pristopu 'nagrade za pristranskost' za pravočasno odkrivanje in popravilo modelov in sistemov s pristranskostjo ali drugim nezaželenim vedenjem. Namesto da odkrijejo hrošče v programski opremi, so zunanje strani povabljene, da odkrijejo pristranskosti – na primer (demografske ali druge) podskupine vnosov, pri katerih je usposobljeni model slabši – in so za to nagrajeni« (v članku »Algoritemski okvir za pristranskost« Bounties« Ire Globus-Harris, Michaela Kearnsa in Aarona Rotha).

V raziskovalnem dokumentu avtorji opisujejo predlagani pristop k temu, kakšne vrste pristranskosti umetne inteligence lahko iščejo lovci na glave. Obstaja tudi podatek o tem, kako oceniti trditve lovcev na glave, povezane z domnevnimi pristranskostmi umetne inteligence, ki so bile tako odkrite. Glede na moje prejšnje pripombe tukaj obstaja velika verjetnost, da boste prejeli lažne trditve in boste morali ločiti zrno od plev pristranskosti AI.

Preden se lotimo še nekaj mesa in krompirja glede divjih in volnatih premislekov, ki so podlaga za lov na pristranskost AI, določimo nekaj dodatnih osnov o zelo pomembnih temah. Na kratko se moramo potopiti v etiko umetne inteligence in zlasti pojav strojnega učenja (ML) in globokega učenja (DL).

Morda se nejasno zavedate, da je eden najglasnejših glasov teh dni na področju umetne inteligence in celo zunaj področja umetne inteligence zahtevanje večjega videza etične umetne inteligence. Oglejmo si, kaj pomeni sklicevanje na etiko umetne inteligence in etično umetno inteligenco. Poleg tega bomo raziskali, kaj mislim, ko govorim o strojnem učenju in poglobljenem učenju.

En poseben segment ali del etike umetne inteligence, ki je bil deležen velike medijske pozornosti, je umetna inteligenca, ki kaže nenaklonjene pristranskosti in neenakosti. Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Čez trenutek bom z vami delil nekaj splošnih načel, na katerih temelji etika umetne inteligence. Tu in tam je veliko tovrstnih seznamov. Lahko bi rekli, da še ni enotnega seznama univerzalne privlačnosti in soglasja. To je žalostna novica. Dobra novica je, da so vsaj na voljo seznami etike AI in so ponavadi precej podobni. Vse skupaj nakazuje, da z nekakšno obliko utemeljene konvergence iščemo pot do splošne skupnosti tega, iz česar je sestavljena etika umetne inteligence.

Najprej na kratko pokrijmo nekaj splošnih etičnih predpisov umetne inteligence, da ponazorimo, kaj bi moralo biti ključnega pomena za vsakogar, ki ustvarja, uporablja ali uporablja AI.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da so "samo koderji" ali tisti, ki programirajo umetno inteligenco, podvrženi spoštovanju konceptov etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

Prepričajmo se tudi, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli super inteligentno AI, je možno, da bi bila taka AI na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne AI kot možnosti glej pokritost tukaj).

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vrnimo se zdaj k temi lova na pristranskost AI.

Za tiste, ki razmišljate o lovu na glave zaradi pristranskosti umetne inteligence, je tukaj mojih priporočenih sedem ključnih korakov, kako najbolje nadaljevati:

1) Ocenite. Ocenite primernost pristranskega lova na glave AI za vaše okoliščine in glede na vaše sisteme AI

2) Oblikovanje. Oblikujte ustrezen pristop lova na glave zaradi pristranskosti AI

3) Izvajati. Izvedite in objavite svoja prizadevanja AI predsodkov za lov na glave

4) Polje. Polje, da umetna inteligenca vpliva na zahtevke za nagrade in jih ustrezno obdela

5) fiksna. Popravite ali prilagodite svoj AI glede na te odkrite izpostavljenosti pristranskosti AI

6) Prilagajanje. Po potrebi prilagodite AI pristranskost lova na glave

7) Prekinite. Prenehajte s pristranskim lovom na glave AI, ko ni več potreben

Upoštevajte, da sem v nizu zgornjih korakov omenil, da boste verjetno želeli popraviti ali prilagoditi svoj AI na podlagi ugotovitve, da domnevna pristranskost AI dejansko obstaja v vašem sistemu AI. To je zelo smiselno. Skoraj zagotovo bi želeli podpreti vse ugotovljene pristranskosti AI. Pomislite na pravne (in etične) posledice, če tega ne storite. Ena stvar je trditi, da niste vedeli za obstoj pristranskosti umetne inteligence in ste zato dovolili, da obstaja, medtem ko je veliko bolj majava stvar, če imate v evidenci, da ste bili obveščeni o pristranskosti umetne inteligence in glede tega niste storili ničesar.

Narava in stopnja popravka ali prilagoditve umetne inteligence bi bila seveda odvisna od tega, kako pomembne so bile pristranskosti umetne inteligence in kako globoko so zakoreninjene težave. Če imate srečo, bo morda skromna količina sprememb umetne inteligence popravila zadeve. Druga možnost je, da boste morda morali v celoti prepisati AI. Za vrsto umetne inteligence ML/DL bi to lahko zahtevalo vrnitev na risalno desko in začetek na novo s popolnoma novim naborom podatkov in prečiščenim modelom ML/DL. Razpravljal sem o pojavu AI izpraznitve ali uničenja AI kot potencialnega pravnega sredstva proti neprijetni AI, glej povezava tukaj.

Eno vprašanje, o katerem je treba razmisliti, je, ali bi želeli, da lovci na glave morda storijo več kot le ugotovijo obstoj pristranskosti AI. Nagrado lahko na primer posladkate tako, da navedete, da so tudi predlagani popravki dobrodošli. Pristranskost AI je pokazala, lovec na glave lahko plača eno navedeno nagrado ali nagrado. Če lovec na glave lahko ponudi tudi uspešno fiksna zaradi pristranskosti umetne inteligence bi lahko potem prejeli dodatno nagrado.

Nekateri trdijo, da je to most predaleč. Pravijo, da bi morali biti lovci na glave zaradi pristranskosti AI osredotočeni izključno na iskanje pristranskosti AI. Ustvarili boste kup nezaželenih škodljivih posledic, če jih povabite, da tudi predlagajo popravke. Naj bodo stvari preproste. Cilj je pridobiti čim več dodatnih oči za odkrivanje pristranskosti umetne inteligence, da se boste lahko odločili, kaj storiti naprej. Ne blatite vode.

Neprijeten vidik, ki ga je treba ugotoviti, vključuje velikost nagrade ali nagrade za lovce na glave, ki resnično odkrijejo pristranskosti umetne inteligence. Želite, da je izplačilo demonstrativno. Brez dovolj visoke nagrade ne boste dobili veliko lovcev na glave ali pa ne bodo posebej vneto iskali pristranskosti AI v vaših sistemih AI. Namesto tega se lahko osredotočijo na druga prizadevanja za nagrajevanje pristranskosti AI.

Poleg tega, kot že omenjeno, želite poskusiti zatreti željo lovcev na glave, da svoja odkritja pristranskosti AI spremenijo v druge oblike zlata. Če se zdi nagrada pičla, bi lahko vznemirila lovce na glave, da bi iskali druge višje nagrade. Do vas lahko pristopijo z izsiljevalsko programsko opremo. Lahko izjavijo, da imajo sočno pristranskost umetne inteligence, za katero bi konkurent rad izvedel in bi jo lahko uporabil proti vašemu podjetju tako, da bi reklamirali, da pristranskost umetne inteligence obstaja v vaši umetni inteligenci. Tako odkrito pristranskost AI prodajo najboljšemu ponudniku. In tako naprej.

Predvidevamo, da če nastavite nagrado na izjemno visok razpon, zahtevate tudi morebitne težave. To bi lahko privabilo vse vrste norih lovcev na glave. Po drugi strani pa bi lahko preplavili družbena omrežja z meglenimi trditvami, da so odkrili množico pristranskosti umetne inteligence, pri čemer so to počeli za lastno samopromocijo in ne da bi dejansko izpostavili kakršno koli pristranskost umetne inteligence. V nekem smislu vaša večja nagrada nenamerno osvetli vašo umetno inteligenco in spodbudi množico neotesanih moljev, da jih ustrezno pogubno pritegne žareči svetlobni žarek.

Drug premislek vključuje dostopnost do vaše umetne inteligence.

Da bi omogočili možnost lova na glave z umetno inteligenco, morajo lovci na glave pridobiti zadosten dostop do vaše umetne inteligence. Ne bodo imeli veliko sreče pri iskanju pristranskosti umetne inteligence, če bodo popolnoma izključeni. Vendar se ne želite odpovedati zaščiti kibernetske varnosti, saj bi to lahko popolnoma ogrozilo vaš sistem AI.

Lahko poskusite, da lovci na glave podpišejo različne pravno zavezujoče izjave in jim nato zagotovite potreben dostop. Nekaterim lovcem na glave takšen pristop ne bo všeč. Njihovo stališče je, da bodo naredili le vse, kar dopušča katera koli javno dostopna in odprta pot. Tako rekoč so svobodni maveriki in ne marajo, da jih osedlajo. Če jih prisilite, da podpišejo zastrašujoče pravne dokumente, se bodo mnogi od njih izognili iskanju pristranskosti AI v vaši AI. Lahko pa se bodo razjezili na vašo pravno roko in se odločili, da bodo videli, kaj lahko najdejo z javnimi sredstvi, in to storijo z morda ostro željo, da vam pokažejo, kako ranljivi ste v resnici.

Imam še en zorni kot, zaradi katerega se vam lahko zvrti v glavi.

Lovec na glave, ki je podkovan z umetno inteligenco, se bo morda odločil izdelati sistem umetne inteligence, ki bo lahko natančno pregledal vašo umetno inteligenco in po možnosti odkril pristranskosti umetne inteligence v vaši umetni inteligenci. To je orodjar, ki se odloči izdelati orodje za opravljanje dela, namesto da bi sam opravljal ročno delo. Namesto da bi s težavo preiskovali vašo umetno inteligenco, lovec na glave, ki je podkovan z umetno inteligenco, porabi svoj čas za sestavljanje orodja umetne inteligence, ki dela isto. Nato uporabijo orodje AI na vašem AI. Lepota je tudi v tem, da lahko domnevno ponovno uporabijo orodje AI za kogar koli drugega, ki prav tako ponuja priložnost za lov na glave na njihovem ustreznem AI.

Vem, kaj verjetno mislite. Če je mogoče izdelati orodje za umetno inteligenco za preverjanje pristranskosti umetne inteligence, bi moral izdelovalec umetne inteligence, ki je pod drobnogledom glede pristranskosti umetne inteligence, izdelati takšno orodje ali ga kupiti za lastno uporabo. Teoretično se jim za začetek ni treba boriti s celotnim karnevalom lovcev na glave. Preprosto uporabite AI, da ugotovite njihove pristranskosti AI.

Da, to je nekaj, kar lahko pričakujete, da se bo pojavilo postopoma. Medtem bodo glavni steber teh prizadevanj verjetno sestavljali razvijalci umetne inteligence, ki izvajajo lov na glave. Morda bodo uporabili različna orodja za pomoč pri svojih prizadevanjih, vendar je malo verjetno, da bodo v kratkem preprosto brezglavo samodejno nastavili orodje AI in zadremali, tako da bo orodje namesto njih opravilo celotno pristranskost AI.

Nismo še tam.

Stavim, da si na tem mestu te pomembne razprave želite nekaj ilustrativnih primerov, ki bi lahko predstavili to temo. Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Vidite, kot strokovnjak za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, kaj pojasni glede uporabe pristranskega lova na glave z umetno inteligenco, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, pri katerem mora človeški voznik sodelovati pri vožnji, običajno obravnava na 2. ali 3. stopnji. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAADA
S (napredni sistemi za pomoč voznikom).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in AI Bias lov na glave

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Upam, da je to zadostno število opozoril, ki bi podlagale to, kar bom povedal.

V svojih kolumnah sem že obširno razpravljal o uporabi lovcev na glave, usmerjenih v hrošče, na področju avtonomnih vozil in samovozečih avtomobilov. Ta pristop se je dejansko zgodil v tej niši. Obstajajo običajne razprave o tem, ali je to dobra ideja ali ne. Prizadevanja so bila običajno omejene narave, pogosto zamolčana.

Podoben diskurz lahko nastane, ko se fokus preusmeri na iskanje pristranskosti umetne inteligence, namesto na iskanje sistemskih napak samih. Nekateri menijo, da je prekleto, če to storite, prekleto, če ne uganka.

Evo zakaj.

Prvič, da bo jasno, obstajajo številni načini, na katere bodo avtonomna vozila in samovozeči avtomobili podvrženi pristranskosti, ki vsebujejo umetno inteligenco, glejte mojo pokritost na povezava tukaj in povezava tukaj, če naštejem samo nekatere. Proizvajalcem avtomobilov in proizvajalcem samovozečih avtomobilov bi bilo pametno poskusiti preprečiti, da bi se te pristranskosti AI pojavile v njihovih sistemih AI. Pravni in etični ogenj proti takim podjetjem bo nedvomno močan.

Ali je uporaba umetne inteligence pristranska pri lovu na glave primeren pristop v tem posebnem kontekstu?

Eden od odgovorov je, da da, to bo priročno in bo zagotovilo obilico "brezplačnih" kompletov novih oči, s katerimi lahko poskusite ujeti morebitne vgrajene pristranskosti umetne inteligence samovozečega avtomobila z umetno inteligenco ali podobnega. Večina razvijalcev umetne inteligence, ki izdeluje samovozeče avtomobile, je zaposlena z izdelavo umetne inteligence, ki lahko varno vozi avto od točke A do točke B. Preokupirani so s to osnovno zmogljivostjo in nimajo ne časa ne pozornosti do kakršnih koli pristranskosti umetne inteligence, ki bi lahko bile nekje v njihov AI.

Drugi odgovor je, da ne, dovoljevanju lova na glave za avtonomna vozila in samovozeče avtomobile na kakršni koli podlagi, bodisi zaradi hroščev ali pristranskosti umetne inteligence, se je treba odločno izogibati. Argument je, da so ta vozila in njihova umetna inteligenca kalibra življenja ali smrti. Zapletanje z umetno inteligenco na kakršen koli način bi lahko bilo nekako uničujoče za umetno inteligenco in vplivalo na delovanje voznega sistema umetne inteligence.

Protiargument zadnji točki je, da naj lovci na glave ne bi mogli spremeniti AI, ki ga preiskujejo. Tako ni nevarnosti, da bi se zapletli z umetno inteligenco in povzročili, da bi umetna inteligenca v tem kontekstu nenadoma postala ponoreli pogonski sistem umetne inteligence. Lovci na glave imajo dostop samo za branje. Dovoliti jim, da gredo dlje, bi bilo zelo neumno in velika napaka.

Protiargument temu protiargumentu je, da z dovoljevanjem in spodbujanjem lovcev na glave, da pregledajo vašo umetno inteligenco, celotna zadeva postane kockljiva. Ti lovci na glave bi lahko našli načine za izkoriščanje morebitnih najdenih napak ali pristranskosti. Ti izkoriščanji pa so lahko za zvijačne namene. Bolje bi bilo, da v svoj dom tako rekoč ne bi vabili »vlomilcev«. Ko bodo enkrat odstranili sklep, boste na koncu imeli veliko težav.

Tisti, ki imajo sisteme umetne inteligence manjšega obsega kot življenje ali smrt, verjamejo, da so posledice neuspešnega pohoda lova na glave veliko manj tvegane. Morda. Po drugi strani pa, če je podjetje vložilo svoj denar v sistem umetne inteligence, ki ga je lovcem na glave uspelo uzurpirati, lahko domnevate, da bo škoda za ugled in druga potencialna škoda še vedno boleča.

Ko gre za lov na glave zaradi pristranskosti umetne inteligence, ni brezplačnega kosila.

Hitra zaključna opomba za zdaj.

Ko so na starem zahodu iskali razvpitega izobčenca Jesseja Jamesa, je bil natisnjen plakat »Iskano«, ki je ponujal nagrado v višini 5,000 dolarjev za njegovo ujetje (z navedbo »mrtv ali živ«). To je bila za tiste čase precej velika vsota denarja. Eden od članov njegove tolpe se je odločil ustreliti Jesseja in pobrati nagrado. Predvidevam, da to kaže, kako učinkovita je lahko nagrada.

Ali bo uporaba pristranskih lovcev na glave AI dobra ali slaba?

Če se odločite za ustanovitev lovca na glave zaradi pristranskosti umetne inteligence, vam predlagam, da imate široko odprte oči in ves čas gledate čez ramo. To je preudarno za vas in vašo AI. Nikoli ne veš, kaj se lahko zgodi, vključno s tem, da zahrbten lovec na glave nekako prikrito vstavi pristranskost umetne inteligence v tvojo umetno inteligenco in svetu zakriči, da so v tvoji umetni inteligenci našli brezvestno pristranskost. Morda so to storili v predrznem in prevelikem poskusu iskanja nagrade za nagrado, poleg tega pa so se razglasili za junaka, ki je v bistvu dobil hvaljenega Jesseja Jamesa.

Če dobro pomislim, čutečemu umetni inteligenci verjetno ne bo všeč ta zamisel o zaskrbljujoči določbi o mrtvem ali živem, bi lahko tako dolgočasno špekulirali.

Vir: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- etično-zlobni-popolnoma-avtonomni-sistemi-je-preudaren-ali-jalov/