Odgovorna umetna inteligenca uživa izjemno spodbudo prek razglasitve etike umetne inteligence s strani vrhunskega strokovnega združenja ACM

Ste videli ali slišali novico?

Na novo je bil razglašen še en sklop etičnih predpisov AI.

Buren aplavz, če želite.

Potem spet, morda ne so to opazili zaradi dejstva, da je že nekaj časa naokoli toliko drugih odlokov o etiki umetne inteligence. Nekateri pravijo, da navidezno neprekinjeno pronicanje razglasov o etični umetni inteligenci postaja nekoliko otopelo. Koliko jih potrebujemo? Jim lahko kdo dohaja vse? Kateri je najboljši? Ali morda pretiravamo z načeli etike umetne inteligence? In tako naprej.

No, v tem konkretnem primeru pravim, da bi morali še posebej pozdraviti to najnovejšo pridobitev v klubu.

Čez trenutek bom pronicljivo razložil, zakaj.

Najprej, kot pojasnilo, imam v mislih nabor etičnih predpisov AI, ki je zdaj uradno znan kot "Izjava o načelih za odgovorne algoritemske sisteme” ki ga je nedavno objavil Svet za tehnološko politiko ACM 26. oktobra 2022. Pohvale gredo skupinam strokovnjakov, ki so sestavile ta cenjeni dokument, vključno s sovodnima avtorjema Jeanno Matthews (Univerza Clarkson) in Ricardom Baeza-Yatesom (Univerza Pompeu Fabra). ).

Tisti med vami, ki ste seznanjeni, boste morda ob natančnem pregledu ugotovili, da se zdi ta dokument malo znan.

Dobro oko!

Ta najnovejša inkarnacija je v bistvu posodobljena in razširjena različica prejšnje skupne »Izjave o algoritemski preglednosti in odgovornosti«, ki sta jo objavila Odbor za tehnološko politiko ACM ZDA in Odbor za tehnološko politiko ACM Evropa leta 2017. Zvesti bralci mojih kolumn se morda spomnijo, da Od časa do časa sem omenil uredbo iz leta 2017 v svoji kolumni, ki je pokrivala ključne vidike etike in prava umetne inteligence.

Za moje obsežne in tekoče ocene in trendovske analize etike in prava umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Ta zadnja izjava ACM je pomembna predvsem iz več ključnih razlogov.

Evo zakaj.

ACM, ki je priročen akronim za Združenje za računalniške stroje, velja za največje svetovno združenje, osredotočeno na računalništvo. ACM šteje približno 110,000 članov in je dolgoletni pionir na področju računalništva. ACM ustvarja nekaj vrhunskih znanstvenih raziskav na področju računalništva in prav tako zagotavlja profesionalno mreženje in privablja tudi računalniške strokovnjake. Kot tak je ACM pomemben glas, ki na splošno predstavlja tiste, ki so visokotehnološki in si vztrajno prizadevajo za napredek na računalniškem področju (ACM je bil ustanovljen leta 1947).

K temu bi lahko dodal tudi malo osebne note. Ko sem se v srednji šoli prvič začel ukvarjati z računalništvom, sem se pridružil ACM in sodeloval v njihovih izobraževalnih programih, zlasti vznemirljive priložnosti, da tekmujem na njihovem letnem tekmovanju v računalniškem programiranju (takšna tekmovanja so dandanes zelo običajna in običajno označena kot hackathons). Med študijem ostajam vključen v ACM prek svojega lokalnega univerzitetnega oddelka in dobil sem priložnost, da se naučim o vodenju, ko sem postal častnik študentskega oddelka. Ob vstopu v industrijo sem se pridružil strokovnemu poglavju in ponovno prevzel vodilno vlogo. Kasneje po tem, ko sem postal profesor, sem sodeloval v odborih in uredniških odborih ACM, poleg tega pa sem sponzoriral študentsko poglavje v kampusu. Še danes sem aktiven v ACM, vključno z delom v Odboru za tehnološko politiko ACM ZDA.

Všeč mi je prikupna in trajna vizija ACM o vseživljenjskem učenju in razvoju kariere.

V vsakem primeru ima dejstvo, da je to izdal ACM, kar zadeva zadnjo izjavo o etiki umetne inteligence, precejšnjo težo. Lahko bi razumno trdili, da so etični predpisi AI celota ali kolektivni glas svetovne skupine računalniških strokovnjakov. To nekaj pove.

Obstaja tudi vidik, da bodo drugi na računalniškem področju navdihnjeni, da se poživijo in prisluhnejo v smislu, da bodo ustrezno upoštevali, kaj izjave navajajo njihovi kolegi računalniški kolegi. Tako bo upajmo, da bodo tudi tisti, ki niso v ACM ali ne vedo ničesar o spoštovani skupini, imeli veliko zanimanje za odkrivanje, o čem govori izjava.

Medtem pa tisti, ki so zunaj s področja računalništva bi lahko izjava pritegnila kot nekakšen insajderski pogled v zakulisje tega, kaj tisti, ki se ukvarjajo z računalniki, pravijo o etični AI. Želim pa poudariti, da je izjava namenjena vsem, ne samo tistim v računalniški skupnosti, zato ne pozabite, da so predpisi etike umetne inteligence tako rekoč vsesplošni.

Nazadnje je tu še dodaten zasuk, ki bi ga malokdo pomislil.

Včasih tujci menijo, da so računalniška združenja poglobljena v tehnologijo in da se ne zavedajo zlasti družbenih vplivov računalnikov in umetne inteligence. Morda bi vas zamikalo domnevati, da so takšni poklicni subjekti mar samo za najnovejše in najbolj vroče preboje na področju strojne ali programske opreme. Javnost jih dojema, na preprosto povedano nesramen način, kot tehnološke piflarje.

Če povem po pravici, sem bil potopljen v družbene vplive računalništva, odkar sem se začel ukvarjati z računalniki, prav tako pa se je tudi ACM zelo ukvarjal s temi temami.

Za vse, ki so presenečeni, da je to izjavo o predpisih etike umetne inteligence sestavil in objavil ACM, ne posvečajo pozornosti dolgotrajnim raziskavam in delu, ki poteka v zvezi s temi zadevami. Prav tako bi pozval, da si zainteresirani dobro ogledajo ACM Etični kodeks, oster poklicni etični kodeks, ki se je razvijal skozi leta in poudarja, da se morajo razvijalci sistemov zavedati etičnih posledic svojih prizadevanj in izdelkov, jih upoštevati in biti pozorni nanje.

Umetna inteligenca podžiga ogenj zaradi obveščenosti o etiki računalništva.

Prepoznavnost etičnih in pravnih vidikov na področju računalništva se je s pojavom današnje umetne inteligence izjemno povečala. Tisti znotraj stroke so obveščeni in občasno bobnani o posvečanju ustrezne pozornosti vprašanjem etike umetne inteligence in prava o umetni inteligenci. Zakonodajalci se vse bolj zavedajo vidikov etike in zakonov o umetni inteligenci. Podjetja razmišljajo o tem, da je umetna inteligenca, ki jo oblikujejo ali uporabljajo, hkrati ugodna, hkrati pa včasih predstavlja ogromna tveganja in potencialne slabosti.

Razkrijmo, kaj se je dogajalo v zadnjih nekaj letih, da bo mogoče vzpostaviti ustrezen kontekst, preden skočimo na ta najnovejši sklop etičnih predpisov AI.

Naraščajoča ozaveščenost o etični umetni inteligenci

Nedavno obdobje umetne inteligence je bilo sprva obravnavano kot AI za dobro, kar pomeni, da bi lahko uporabili AI za izboljšanje človeštva. Za petami AI za dobro prišlo spoznanje, da smo potopljeni tudi v AI za slabo. To vključuje umetno inteligenco, ki je bila zasnovana ali samospremenjena tako, da je diskriminatorna in omogoča računalniške izbire, ki povzročajo neupravičene pristranskosti. Včasih je umetna inteligenca zgrajena tako, medtem ko v drugih primerih zavije na to neugodno ozemlje.

Želim se popolnoma prepričati, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteči AI, bi lahko šla ta razprava v radikalno drugačno smer. Čuteča umetna inteligenca bi bila domnevno človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli superinteligentno umetno inteligenco, je možno, da bi bila takšna umetna inteligenca na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne umetne inteligence kot možnosti glejte pokritost tukaj).

Močno predlagam, da stvari ostanemo prizemljene in razmislimo o današnji računalniški nečuteči umetni inteligenci.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

Bodite zelo previdni pri antropomorfiziranju današnje umetne inteligence.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivnostna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to težje, kot se morda zdi. Obstaja velika verjetnost, da bodo tudi z razmeroma obsežnim testiranjem pristranskosti še vedno vgrajene v modele za ujemanje vzorcev ML/DL.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vse to ima zelo pomembne posledice za etiko umetne inteligence in ponuja priročno okno v pridobljene izkušnje (še preden se zgodijo vse lekcije), ko gre za poskus zakonodaje umetne inteligence.

Poleg uporabe etičnih predpisov umetne inteligence na splošno obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Vnaprej opozarjajo, da bomo, če bomo sprejeli nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z zajezitvijo napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti.

V prejšnjih stolpcih sem obravnaval različna nacionalna in mednarodna prizadevanja za oblikovanje in uveljavitev zakonov, ki urejajo umetno inteligenco, glejte povezava tukaj, na primer. Pokril sem tudi različna načela in smernice etike umetne inteligence, ki so jih opredelili in sprejeli različni narodi, vključno na primer s prizadevanji Združenih narodov, kot je Unescov sklop etike umetne inteligence, ki ga je sprejelo skoraj 200 držav, glej povezava tukaj.

Tukaj je koristen temeljni seznam etičnih meril ali značilnosti umetne inteligence v zvezi s sistemi umetne inteligence, ki sem jih že natančno raziskal:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Ta načela etike umetne inteligence naj bi resno uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo prizadevanja za razvoj umetne inteligence, in celo tistimi, ki na koncu izvajajo in vzdržujejo sisteme umetne inteligence.

Vse zainteresirane strani v celotnem življenjskem ciklu razvoja in uporabe umetne inteligence so obravnavane v okviru spoštovanja že vzpostavljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da morajo »samo koderji« ali tisti, ki programirajo umetno inteligenco, upoštevati pojme etike umetne inteligence. Kot je bilo že poudarjeno v tem dokumentu, je potrebna vas, da zasnuje in uporabi umetno inteligenco, za kar pa mora biti cela vas seznanjena in spoštovati predpise etike umetne inteligence.

Pred kratkim sem pregledal tudi Listina pravic AI kar je uradni naslov uradnega dokumenta ameriške vlade z naslovom »Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People«, ki je rezultat enoletnega prizadevanja Urada za znanost in tehnološko politiko (OSTP). ). OSTP je zvezni subjekt, ki služi za svetovanje ameriškemu predsedniku in izvršnemu uradu ZDA o različnih tehnoloških, znanstvenih in inženirskih vidikih nacionalnega pomena. V tem smislu lahko rečete, da je ta listina pravic AI dokument, ki ga je odobrila in potrdila obstoječa Bela hiša ZDA.

V listini o pravicah umetne inteligence je pet ključnih kategorij:

  • Varni in učinkoviti sistemi
  • Algoritemska diskriminacijska zaščita
  • Zasebnost podatkov
  • Obvestilo in pojasnilo
  • Človeške alternative, premislek in rezerva

Skrbno sem pregledal te predpise, vidite povezava tukaj.

Zdaj, ko sem postavil koristne temelje za te sorodne teme o etiki umetne inteligence in pravu o umetni inteligenci, smo pripravljeni, da skočimo na nedavno izdano ACM »Izjavo o načelih za odgovorne algoritemske sisteme« (mimogrede, ker se naslov dokumenta nanaša na odgovorna algoritemskih sistemov, boste morda želeli pogledati mojo oceno, o čem pomeni govoriti Zaupanja vreden AI, Glej povezava tukaj).

Pripravite se na potovanje v ta najnovejši nabor etičnih načel AI.

Pozorno kopanje v etične predpise umetne inteligence, ki jih je objavil ACM

Izjava ACM o etični umetni inteligenci je sestavljena iz teh devetih temeljnih kamnov:

  • Legitimnost in pristojnost
  • Zmanjševanje škode
  • Varnost in zasebnost
  • Preglednost
  • Interpretabilnost in razložljivost
  • Vzdržljivost
  • Izpodbojnost in revidabilnost
  • Odgovornost in odgovornost
  • Omejitev vplivov na okolje

Če primerjate ta najnovejši niz z drugimi posebej razpoložljivimi kompleti, je med njimi veliko podobnosti ali podobnih korespondenc.

Po eni strani lahko to vzamete kot dober znak.

Na splošno lahko upamo, da se množica etičnih načel umetne inteligence, ki lebdijo naokoli, združuje v smeri iste splošne pokritosti. Če vidite, da je en niz nekoliko primerljiv z drugim nizom, dobite videz zaupanja, da so ti nizi znotraj istega kroga in ne nekako zunaj zagonetnega levega polja.

Nekateri se lahko pritožujejo, da se ti različni nizi zdijo približno enaki, kar lahko povzroči zmedo ali vsaj osuplost zaradi pomisleka, da ne bi smeli imeti številnih navidezno podvojenih seznamov. Ali ne more biti samo en seznam? Težava je seveda v tem, da ni preprostega načina, da bi bili vsi takšni seznami enakomerno popolnoma enaki. Različne skupine in subjekti so se tega lotili na različne načine. Dobra novica je, da so skoraj vsi prišli do istega splošnega zaključka. Oddahnemo si lahko, da sklopi nimajo velikih razlik, kar bi nam morda povzročalo nelagodje, če ne bi bilo splošnega soglasja.

Nasprotnik bi lahko opozoril, da je podobnost teh seznamov zaskrbljujoča, in trdil, da se morda dogaja skupinsko razmišljanje. Morda vse te različne skupine razmišljajo na enak način in ne morejo pogledati onkraj norme. Vsi se ujamemo v enako past. Seznami navidezno sidrajo naše razmišljanje in ne moremo videti dlje od lastnega nosu.

Pogled čez naš nos je nedvomno vreden namen.

Vsekakor sem pripravljen slišati, kaj imajo nasprotniki povedati. Včasih zaznajo nekaj, kar ima Titanic proti ogromni ledeni gori. Lahko bi nam koristilo nekaj orlovskih opazovalnic. Toda v zvezi s temi predpisi o etiki umetne inteligence ni bilo ničesar dokončno artikuliranega s strani nasprotnikov, kar bi očitno spodkopavalo ali vzbujalo skrbi glede neupravičenega skupnega dogajanja. Mislim, da nam gre dobro.

V tem sklopu ACM je nekaj posebej opaznih ali izstopajočih točk, za katere menim, da so še posebej vredne opazne pozornosti.

Prvič, všeč mi je izraz na najvišji ravni, ki je nekoliko drugačen od običajnega.

Na primer, sklicevanje na legitimnost in pristojnost (prva označena postavka) vzbuja videz pomembnosti oblikovalskih in vodstvenih kompetenc, povezanih z umetno inteligenco. Poleg tega je legitimnost ključna fraza nas na koncu popelje v etiko umetne inteligence in Pravno področje AI. To pravim zato, ker se številni predpisi o etiki umetne inteligence skoraj v celoti osredotočajo na etične posledice, vendar se zdi, da izpuščajo ali se sramujejo, da bi opazili tudi pravne posledice. Na pravnem področju se etični vidiki pogosto oglašujejo kot »mehko pravo«, medtem ko se zakoni v knjigah razlagajo kot »trdi zakoni« (kar pomeni, da imajo težo pravnih sodišč).

Enega mojih najljubših izrekov vseh časov je izrekel slavni pravnik Earl Warren: "V civiliziranem življenju pravo plava v morju etike."

Zagotoviti moramo, da predpisi etike umetne inteligence zajemajo in poudarjajo tudi trdopravno plat stvari, kot pri pripravi, uveljavitvi in ​​uveljavljanju zakonov o umetni inteligenci.

Drugič, cenim, da seznam vključuje izpodbojnost in revidabilnost.

Večkrat sem pisal o vrednosti možnosti tekmovanja ali opozarjanja, ko ste podvrženi sistemu umetne inteligence, glejte povezava tukaj. Poleg tega bomo vse pogosteje videli nove zakone, ki bodo zahtevali revizijo sistemov umetne inteligence, o čemer sem na dolgo razpravljal o zakonu mesta New York (NYC) o pristranskosti revizije sistemov umetne inteligence, ki se uporabljajo za zaposlovanje in napredovanje zaposlenih, glej povezava tukaj. Na žalost in glede na to, da odkrito kritiziram novi zakon NYC, bodo ti zakoni o reviziji, če so pomanjkljivi, verjetno ustvarili več težav, kot jih rešili.

Tretjič, postopno se prebuja, da lahko umetna inteligenca prežema vprašanja trajnosti in vesel sem, ko vidim, da okolja tema dobila obračun na najvišji ravni v teh predpisih etike AI (glejte zadnjo točko na seznamu).

Samo dejanje ustvarjanja sistema AI lahko porabi veliko računalniških virov. Ti računalniški viri so lahko neposredno ali posredno uzurpatorji trajnosti. Upoštevati je treba kompromis med koristmi, ki jih zagotavlja umetna inteligenca, v primerjavi s stroški, ki jih prinaša umetna inteligenca. Zadnji od označenih elementov ACM opozarja na trajnostne in okoljske vidike, ki se pojavljajo pri umetni inteligenci. Za mojo pokritost vprašanj ogljičnega odtisa, povezanih z umetno inteligenco, glejte povezava tukaj.

Zdaj, ko smo opravili v nebo vpogled v seznam etičnih predpisov AI na ACM, smo se naslednjič poglobili v vode.

Tu so uradni opisi za vsako od predpisov etike umetne inteligence na visoki ravni (citirano iz uradne izjave):

1. "Legitimnost in pristojnost: Načrtovalci algoritemskih sistemov bi morali imeti vodstvene sposobnosti in izrecno pooblastilo za gradnjo in uvajanje takih sistemov. Imeti morajo tudi strokovno znanje na področju aplikacij, znanstveno osnovo za predvideno uporabo sistemov in zainteresirane strani, na katere vpliva sistem, jih na splošno obravnavajo kot družbeno legitimne. Izvesti je treba pravne in etične ocene, da se potrdi, da bodo vsa tveganja, ki jih prinašajo sistemi, sorazmerna s težavami, ki se obravnavajo, in da vse ustrezne zainteresirane strani razumejo vse kompromise med koristjo in škodo.«

2. "Zmanjšanje škode: Upravljavci, načrtovalci, razvijalci, uporabniki in druge zainteresirane strani algoritemskih sistemov se morajo zavedati možnih napak in pristranskosti, vključenih v njihovo zasnovo, implementacijo in uporabo, ter potencialne škode, ki jo lahko sistem povzroči posameznikom in družbi. Organizacije bi morale redno izvajati ocene učinka na sisteme, ki jih uporabljajo, da ugotovijo, ali bi sistem lahko povzročil škodo, zlasti diskriminatorno, in da uporabijo ustrezne ublažitve. Kadar je mogoče, naj se učijo iz meritev dejanske uspešnosti, ne zgolj iz vzorcev preteklih odločitev, ki so bile morda same po sebi diskriminatorne.«

3. "Varnost in zasebnost: Tveganje zlonamernih strank je mogoče zmanjšati z uvedbo najboljših praks glede varnosti in zasebnosti v vseh fazah življenjskega cikla sistemov, vključno z robustnimi kontrolami za ublažitev novih ranljivosti, ki se pojavijo v kontekstu algoritemskih sistemov.«

4. "Transparentnost: Razvijalci sistemov se spodbujajo, da jasno dokumentirajo način, na katerega so bili določeni nabori podatkov, spremenljivke in modeli izbrani za razvoj, usposabljanje, validacijo in testiranje, kot tudi posebne ukrepe, ki so bili uporabljeni za zagotavljanje kakovosti podatkov in izhodov. Sistemi bi morali navesti svojo stopnjo zaupanja pri vsakem rezultatu in ljudje bi morali posredovati, ko je zaupanje nizko. Razvijalci bi morali tudi dokumentirati pristope, ki so bili uporabljeni za raziskovanje morebitnih pristranskosti. Za sisteme s kritičnim vplivom na življenje in dobro počutje je treba zahtevati neodvisne postopke preverjanja in validacije. Javni pregled podatkov in modelov daje največ možnosti za popravke. Razvijalci bi morali tako olajšati testiranje tretjih oseb v javnem interesu.«

5. "Interpretabilnost in razložljivost: Vodje algoritemskih sistemov se spodbuja, da pripravijo informacije tako o postopkih, ki jim uporabljeni algoritmi sledijo (interpretabilnost), kot tudi o specifičnih odločitvah, ki jih sprejemajo (razložljivost). Razložljivost je lahko prav tako pomembna kot natančnost, zlasti v kontekstih javne politike ali katerem koli okolju, v katerem obstajajo pomisleki o tem, kako bi lahko algoritme izkrivili v korist ene skupine pred drugo brez priznanja. Pomembno je razlikovati med razlagami in naknadnimi racionalizacijami, ki ne odražajo dokazov ali postopka odločanja, uporabljenega za doseganje pojasnjenega sklepa.«

6. "Vzdrževanje: Dokaze o zanesljivosti vseh algoritemskih sistemov je treba zbirati v njihovem življenjskem ciklu, vključno z dokumentacijo o sistemskih zahtevah, načrtovanju ali izvajanju sprememb, testnih primerih in rezultatih ter dnevniku najdenih in odpravljenih napak. Pravilno vzdrževanje lahko zahteva sisteme preusposabljanja z novimi podatki o usposabljanju in/ali zamenjavo uporabljenih modelov.«

7. "Izpodbojnost in revidabilnost: Regulatorji bi morali spodbujati sprejetje mehanizmov, ki posameznikom in skupinam omogočajo, da dvomijo o rezultatih in iščejo odškodnino za škodljive učinke, ki izhajajo iz algoritemsko utemeljenih odločitev. Vodje bi morali zagotoviti, da so podatki, modeli, algoritmi in odločitve zabeleženi, tako da jih je mogoče revidirati in rezultate ponoviti v primerih, ko obstaja sum ali domnevna škoda. Revizijske strategije bi morale biti javne, da bi lahko posamezniki, organizacije javnega interesa in raziskovalci pregledali in priporočili izboljšave.«

8. "Odgovornost in odgovornost: Javni in zasebni organi bi morali odgovarjati za odločitve, ki jih sprejmejo algoritmi, ki jih uporabljajo, tudi če ni mogoče podrobno razložiti, kako so ti algoritmi ustvarili rezultate. Takšni organi bi morali biti odgovorni za celotne sisteme, kot so razporejeni v njihovem specifičnem kontekstu, ne le za posamezne dele, ki sestavljajo dani sistem. Ko so odkrite težave v avtomatiziranih sistemih, bi morale organizacije, odgovorne za uvedbo teh sistemov, dokumentirati posebne ukrepe, ki jih bodo sprejele za odpravo težave, in v kakšnih okoliščinah je treba uporabo takšnih tehnologij začasno prekiniti ali prekiniti.«

9. "Omejevanje vplivov na okolje: Algoritemske sisteme je treba oblikovati tako, da poročajo o ocenah vplivov na okolje, vključno z emisijami ogljika, tako iz usposabljanja kot iz operativnih izračunov. Sistemi umetne inteligence morajo biti zasnovani tako, da zagotavljajo, da so njihove emisije ogljika razumne glede na stopnjo natančnosti, ki jo zahteva kontekst, v katerem se uporabljajo.

Verjamem, da boste vsako od teh ključnih zapovedi etike umetne inteligence natančno prebrali. Prosim, vzemite si jih k srcu.

zaključek

Obstaja subtilen, a enako pomemben del izjave ACM, za katerega menim, da bi ga mnogi morda nenamerno spregledali. Naj poskrbim, da vas opozorim na to.

Namigujem na del, ki obravnava mučno uganko tehtanja kompromisov, povezanih z etičnimi predpisi AI. Vidite, večina ljudi pogosto veliko nespametno kima z glavo, ko bere načela etične umetne inteligence in domneva, da so vsi predpisi enake teže in da bodo vsi predpisi vedno deležni enakega optimalnega videza spoštovanja in vrednosti.

Ne v resničnem svetu.

Ko se guma sreča s cesto, bo vsaka vrsta umetne inteligence, ki je vsaj malo zapletena, grdo preizkusila predpise etike umetne inteligence glede tega, ali so nekateri elementi dovolj dosegljivi v primerjavi z nekaterimi drugimi načeli. Zavedam se, da morda glasno vzklikate, da mora vsa umetna inteligenca maksimalno izkoristiti vsa pravila etike umetne inteligence, vendar to ni posebej realistično. Če želite zavzeti takšno stališče, si upam trditi, da bi verjetno morali povedati večini ali skoraj vsem izdelovalcem in uporabnikom umetne inteligence, naj zaprejo trgovino in popolnoma opustijo umetno inteligenco.

Treba je sprejeti kompromise, da bi umetno inteligenco spravili ven. Kot rečeno, ne zagovarjam rezanja, ki kršijo predpise etike umetne inteligence, niti ne namigujem, da bi morali kršiti zakone o umetni inteligenci. Doseči je treba določen minimum, nad katerim si je cilj prizadevati še več. Na koncu je treba skrbno oceniti ravnotežje. To ravnotežje je treba izvesti premišljeno, eksplicitno, zakonito in z etiko umetne inteligence kot dobrovernim in iskrenim prepričanjem (morda boste želeli videti, kako podjetja uporabljajo odbore za etiko umetne inteligence, da poskusijo pridobiti ta slovesni pristop, glejte povezava tukaj).

Tukaj je nekaj označenih točk, ki jih deklaracija ACM omenja glede kompleksnosti kompromisov (citirano iz uradnega dokumenta):

  • "Rešitve morajo biti sorazmerne s problemom, ki ga rešujemo, tudi če to vpliva na kompleksnost ali stroške (npr. zavrnitev uporabe javnega videonadzora za preprosto nalogo napovedovanja)."
  • »Upoštevati je treba široko paleto meritev uspešnosti, ki se lahko različno tehtajo glede na domeno aplikacije. Na primer, v nekaterih zdravstvenih aplikacijah so lahko učinki lažno negativnih rezultatov veliko hujši od lažno pozitivnih rezultatov, medtem ko so lahko v kazenskem pravosodju posledice lažno pozitivnih rezultatov (npr. zaprtje nedolžne osebe) veliko hujše kot lažno negativni rezultati. Najbolj zaželena nastavitev operacijskega sistema je redko tista z največjo natančnostjo.«
  • »Pomisleki glede zasebnosti, varovanja poslovnih skrivnosti ali razkritja analitike, ki bi lahko zlonamernim akterjem omogočili, da se zavajajo s sistemom, lahko upravičijo omejevanje dostopa kvalificiranim posameznikom, vendar se ne smejo uporabljati za opravičevanje omejevanja nadzora tretjih oseb ali za oprostitev razvijalcem obveznosti za prepoznavanje in popravljanje napak."
  • »Transparentnost mora biti združena s postopki za odgovornost, ki deležnikom, na katere vpliva algoritemski sistem, omogočajo, da poiščejo smiselno nadomestilo za storjeno škodo. Transparentnost se ne sme uporabljati za legitimizacijo sistema ali za prenos odgovornosti na druge strani.«
  • »Če je vpliv sistema velik, je morda bolje razložiti sistem. V mnogih primerih ni kompromisa med razložljivostjo in natančnostjo. V nekaterih okoliščinah pa so lahko napačne razlage celo hujše kot brez razlage (npr. v zdravstvenih sistemih lahko simptom ustreza številnim možnim boleznim, ne le eni).«

Tisti, ki razvijajo ali uporabljajo AI, se morda ne bodo odkrito zavedali kompromisov, s katerimi se soočajo. Najvišji voditelji podjetja bi lahko naivno domnevali, da umetna inteligenca izpolnjuje maksimalne vrednosti vseh načel etike umetne inteligence. Bodisi verjamejo v to, ker nimajo pojma o AI, ali pa hočejo verjeti temu in morda mežikajo, da bi takoj sprejeli AI.

Verjetnost je, da bo umetna inteligenca povzročila škodo, če se ne boste vsebinsko in odkrito soočili s kompromisi. Ta škoda bo podjetje verjetno odprla potencialno velikim obveznostim. Poleg tega lahko običajni zakoni pridejo v poštev za morebitna kazniva dejanja, povezana z umetno inteligenco, skupaj z novejšimi zakoni, osredotočenimi na umetno inteligenco, ki se tudi ukvarjajo s tem. Tona zidakov čaka nad glavami tistih, ki mislijo, da se lahko spopadejo s kompromisi, ali pa se popolnoma ne zavedajo, da kompromisi obstajajo (nad njimi bo neizogibno padlo porazno spoznanje).

Za zdaj bom dal zadnjo besedo o tej temi sklepnemu vidiku izjave ACM, saj menim, da dobro razlaga, kaj si makroskopsko prizadevajo ti etični predpisi AI prinesti:

  • »Prejšnja priporočila se osredotočajo na odgovorno načrtovanje, razvoj in uporabo algoritemskih sistemov; odgovornost morata določati zakon in javni red. Vse večja moč algoritemskih sistemov in njihova uporaba v življenjsko kritičnih in posledičnih aplikacijah pomeni, da je potrebna velika previdnost pri njihovi uporabi. Teh devet instrumentalnih načel naj bi služilo kot navdih pri sprožanju razprav, začetku raziskav in razvoju metod upravljanja, ki prinašajo koristi širokemu krogu uporabnikov, hkrati pa spodbujajo zanesljivost, varnost in odgovornost. Konec koncev je poseben kontekst tisti, ki opredeljuje pravilno zasnovo in uporabo algoritemskega sistema v sodelovanju s predstavniki vseh prizadetih deležnikov« (citirano iz uradnega dokumenta).

Kot nam bistroumno povedo modre besede, se tisoč milj dolgo potovanje začne s prvim korakom.

Rotim vas, da se seznanite z etiko umetne inteligence in pravom o umetni inteligenci, naredite prvi korak, ki vas bo spodbudil, in nato pomagajte pri nadaljevanju teh bistvenih prizadevanj. Lepota je v tem, da smo še vedno v povojih, ko ugotavljamo, kako upravljati in se družbeno spoprijeti z umetno inteligenco, zato vstopate v pritličje in vaša prizadevanja lahko očitno oblikujejo vašo prihodnost in prihodnost vseh nas.

Pot umetne inteligence se je šele začela in ključni prvi koraki so še v teku.

Vir: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- poklicno-zdruzenje-acm/