Etika umetne inteligence in grozeči debakel, ko začne veljati zakon mesta New York, ki zahteva revizije pristranskosti umetne inteligence

Včasih so najboljši nameni žalostno razblinjeni zaradi hudega pomanjkanja pozornosti do podrobnosti.

Vrhunski primer te modre modrosti je vreden raziskovanja.

Natančneje, natančno si oglejmo nov zakon v New Yorku v zvezi z umetno inteligenco (AI), ki bo začel veljati 1. januarja 2023. Z lahkoto bi lahko dobili precejšnjo stavo, da bodo nastale vse vrste zmede, osuplosti in težav. ko bo zakon stopil v veljavo. Čeprav težave niso načrtovane, se bodo nedvomno pojavile kot posledica slabe zasnove ali vsaj nezadostne določitve potrebnih podrobnosti, ki bi jih bilo treba in bi jih bilo mogoče enostavno domisliti in izrecno navesti.

Mislim na lokalni zakon, sprejet lani 11. decembra 2021 v cenjenem mestu New York, ki naj bi začel veljati v začetku leta 2023. Trenutno nas loči le še nekaj mesecev od velikega prebujenja, ki ta novi zakon bo razburil. Želim si, da bi lahko rekel, da bo ambiciozen zakon nemoteno naredil tisto, kar naj bi naredil, namreč obravnaval morebitne pristranskosti umetne inteligence na področju odločanja o zaposlitvi. Žal, čeprav je namen hvalevreden, vas bom popeljal skozi zevajoče vrzeli, opustitve in pomanjkanje natančnosti, ki bodo spodkopali ta zakon in obnoreli delodajalce, ko se želijo spopasti z njegovimi nenamernimi, a precej neugodnimi posledicami.

Lahko bi rekli, da je to klasično vprašanje napredovanja s polovičnim načrtom. Spoštovana maksima, ki so jo pripisali Dwightu Eisenhowerju, je bila, da je načrt nič, medtem ko je načrtovanje vse. Skratka, ta poseben zakon bo jasen primer, kako lahko zakonodajalci včasih ne uspejo, če ne premislijo predhodno potrebne podrobnosti, tako da zakon izpolnjuje svoje hvalevredne cilje in ga je mogoče sprejeti na zagotovo razumen in preudaren način.

Čaka nas debakel.

Izgovori se že kar vrstijo.

Nekateri strokovnjaki so rekli, da zakona nikoli ne morete v celoti določiti in da ga morate videti v akciji, da veste, katere vidike zakona je treba spremeniti (splošna resnica, ki je v tem primeru nesorazmerna). Poleg tega vneto trdijo, da je to zlasti tako, ko gre za nastajajoče novosti zakonov, povezanih z umetno inteligenco. Hudiča, opominjajo, umetna inteligenca je visokotehnološka čarovnija, o kateri kot zakonodajalci ne vemo veliko, zato je logika, da je bolje imeti nekaj objavljenega na pravnih straneh, kot če tam sploh nimamo ničesar.

Na površini to zagotovo zveni prepričljivo. Kopnite globlje in spoznali boste, da je potencialno hud, vključno in zlasti v primeru tega posebnega zakona. Ta zakon bi lahko bil bolj spretno in razumno določen. Ne potrebujemo čarobnih napojev. Ni nam treba čakati, da pride do zapletov. V času, ko je bil zakon oblikovan, je bilo mogoče določiti pravo besedilo in podrobnosti.

Poskrbimo tudi, da je nespodobna, lebdeča ideja, da vidikov posvojitve ni bilo mogoče predvideti vnaprej, boleče nesmiselna. To je legalno mumbo-jumbo mahanje z rokami najbolj prazne vrste. Obstaja veliko že znanih premislekov o obravnavanju pristranskosti umetne inteligence in izvajanju revizij umetne inteligence, ki bi jih bilo mogoče takoj vključiti v ta zakon. Enako lahko rečemo za katero koli drugo jurisdikcijo, ki razmišlja o uvedbi takega zakona. Ne nasedajte prepričanju, da se moramo le zateči k slepemu metanju legalne puščice v divje vetrove in trpeti bolečino. Nekaj ​​pravno usmerjenega razmišljanja v kombinaciji z ustreznim razumevanjem umetne inteligence je že izvedljivo in ni potrebe, da bi se prijemali samo za slamice.

Dodal bi lahko, da je še čas, da se to popravi. Ura še tiktaka. Morda se bo mogoče zbuditi, preden začnejo zvoniti alarmi. Potreben nasvet je mogoče pridobiti in objaviti. Časa je malo, zato je temu treba dati prednost.

V vsakem primeru se prepričajte, da razumete poudarek tukaj.

Dovolite mi, da goreče pojasnim, da je takšen zakon o pristranskosti umetne inteligence upravičen. V trenutku bom razložil, zakaj. Opisal bom tudi težave s tem novim zakonom, za katerega bi mnogi rekli, da je sploh prvi, ki je bil vključen v pravne knjige (obstajajo tudi druge različice, morda pa ne tako kot ta).

Pravzaprav lahko pričakujete, da bodo podobni zakoni postopoma začeli obstajati po vsej državi. Ena od pomembnih zaskrbljenosti je, da če bo ta poskus prvega koraka v New Yorku neuspešen, bo to lahko povzročilo, da bo preostala država previdna pri sprejemanju takšnih zakonov. To ni prava lekcija, ki bi se je bilo treba naučiti. Pravilen nauk je, da če boste pisali tak zakon, to storite razumno in premišljeno.

Zakoni, ki so bili uvedeni v knjige brez ustreznega preverjanja, so lahko zelo vznemirljivi in ​​povzročijo vse vrste težav na koncu. V tem smislu vas prosimo, da otroka ne vržete ven s kopalno vodo (star pregovor, ki bi ga verjetno morali umakniti). Bistvo je, da so takšni zakoni lahko resnično produktivni in varovalni, če so pravilno sestavljeni.

Ta na žalost tega ne bo storil zunaj vrat.

Vse vrste paničnih navodil bodo zagotovo prišle od zakonodajalcev in izvajalcev zakona. Označite si koledarje za konec januarja in februar 2023 in opazujte, kako se bo dogajalo. Kazanje s prstom bo izjemno intenzivno.

Trenutno se nihče posebej ne tarna, ker zakon še ni pristal na glavi delodajalcev, ki jih bo novi zakon zoprnil. Predstavljajte si, da je to metaforično povedano nekakšen potres, ki naj bi se zgodil v prvih tednih leta 2023. Le redki se na potres pripravljajo. Mnogi sploh ne vedo, da je potres že vpisan v koledar. Ob vsem tem se bo veliko zelo začudenih in šokiranih podjetij spraševalo, kaj se je zgodilo in zakaj se je morala zgoditi potres.

Vse to ima zelo pomembne posledice za etiko umetne inteligence in ponuja priročno okno v pridobljene izkušnje (še preden se zgodijo vse lekcije), ko gre za poskus zakonodaje umetne inteligence. Za moje stalno in obsežno pokrivanje etike umetne inteligence, etično umetno inteligenco, skupaj z zakonom o umetni inteligenci sredi pravnih vidikov upravljanja umetne inteligence, lahko najdete na povezava tukaj in povezava tukaj, da naštejemo samo nekatere.

Ta pravna zgodba o gorju se nanaša na nekdaj nastajajoče pomisleke glede današnje umetne inteligence in zlasti glede uporabe strojnega učenja (ML) in globokega učenja (DL) kot obliki tehnologije in kako se uporablja. Vidite, obstajajo uporabe ML/DL, ki običajno vključujejo antropomorfizacijo umetne inteligence s strani širše javnosti, pri čemer verjamejo ali se odločijo domnevati, da je ML/DL čuteča umetna inteligenca ali blizu (ni). Poleg tega lahko ML/DL vsebuje vidike ujemanja računalniških vzorcev, ki so nezaželeni ali popolnoma nepravilni ali nezakoniti z etičnega ali pravnega vidika.

Morda bi bilo koristno najprej razjasniti, kaj mislim, ko govorim o umetni inteligenci na splošno, in podati tudi kratek pregled strojnega učenja in globokega učenja. Obstaja velika zmeda glede tega, kaj pomeni umetna inteligenca. Prav tako bi vam rad predstavil zapovedi etike umetne inteligence, ki bodo še posebej sestavni del preostanka tega diskurza.

Navedba zapisa o AI

Prepričajmo se, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča.

Tega nimamo.

Ne vemo, ali bo čuteča umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali bo čuteča umetna inteligenca nekako čudežno spontano nastala v obliki računalniške kognitivne supernove (običajno imenovane Singularnost, glejte moje poročanje na povezava tukaj).

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način, enako kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se morda zdi, da so pogovorne zmožnosti podobne človeškim zmožnostim, vendar je v resnici računalniška in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje in globoko učenje, ki izkoriščata računalniško ujemanje vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz nagnjenj, podobnih človeškim. Medtem pa danes ni nobene umetne inteligence, ki bi imela videz zdrave pameti, in tudi ne kognitivnega čudesa robustnega človeškega razmišljanja.

Del problema je naša težnja po antropomorfizaciji računalnikov in zlasti AI. Ko se zdi, da računalniški sistem ali umetna inteligenca deluje na načine, ki jih povezujemo s človeškim vedenjem, obstaja skoraj velika želja, da bi sistemu pripisali človeške lastnosti. To je običajna miselna past, ki lahko zgrabi tudi najbolj nepopustljivega skeptika glede možnosti, da doseže razum.

Do neke mere je zato etika umetne inteligence in etična umetna inteligenca tako ključna tema.

Navodila etike umetne inteligence nas spodbujajo, da ostanemo pozorni. Tehnologi umetne inteligence se lahko včasih ukvarjajo s tehnologijo, zlasti z optimizacijo visoke tehnologije. Ni nujno, da upoštevajo širše družbene posledice. Imeti miselnost etike umetne inteligence in to vključiti v razvoj in uporabo umetne inteligence je bistvenega pomena za ustvarjanje ustrezne umetne inteligence, vključno z oceno, kako podjetja sprejmejo etiko umetne inteligence.

Poleg uporabe etičnih predpisov umetne inteligence na splošno obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Vnaprej opozarjajo, da bomo, če bomo sprejeli nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z zajezitvijo napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti. Oglejte si na primer moje poročilo na povezava tukaj.

V prejšnjih stolpcih sem obravnaval različna nacionalna in mednarodna prizadevanja za oblikovanje in uveljavitev zakonov, ki urejajo umetno inteligenco, glejte povezava tukaj, na primer. Pokril sem tudi različna načela in smernice etike umetne inteligence, ki so jih opredelili in sprejeli različni narodi, vključno na primer s prizadevanji Združenih narodov, kot je Unescov sklop etike umetne inteligence, ki ga je sprejelo skoraj 200 držav, glej povezava tukaj.

Tukaj je koristen temeljni seznam etičnih meril ali značilnosti umetne inteligence v zvezi s sistemi umetne inteligence, ki sem jih že natančno raziskal:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Ta načela etike umetne inteligence naj bi resno uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo prizadevanja za razvoj umetne inteligence, in celo tisti, ki na koncu izvajajo in vzdržujejo sisteme umetne inteligence. Vse zainteresirane strani v celotnem življenjskem ciklu razvoja in uporabe umetne inteligence so obravnavane v okviru spoštovanja že vzpostavljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da morajo »samo koderji« ali tisti, ki programirajo umetno inteligenco, upoštevati pojme etike umetne inteligence. Kot je bilo že poudarjeno v tem dokumentu, je potrebna vas, da zasnuje in uporabi umetno inteligenco, za kar pa mora biti cela vas seznanjena in spoštovati predpise etike umetne inteligence.

Ostanimo prizemljeni in se osredotočimo na današnjo računalniško nečutečo umetno inteligenco.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Menim, da sem zdaj pripravil temelje za zadostno razpravo o vlogi umetne inteligence v rubriki tihega opuščanja.

Umetna inteligenca, ki se uporablja pri odločanju o zaposlovanju

Zakon mesta New York se osredotoča na temo odločanja o zaposlitvi.

Če ste se v zadnjem času poskušali prijaviti za sodobno službo skoraj kjer koli na tem svetu, ste verjetno naleteli na element, ki temelji na AI, v procesu odločanja o zaposlitvi. Seveda morda ne veste, da je tam, saj bi lahko bil skrit v zakulisju in ne bi imeli pripravljenega načina, da bi ugotovili, da je bil vpleten sistem AI.

Pogosta besedna fraza, ki se uporablja za označevanje teh sistemov umetne inteligence, je, da so upoštevani Samodejna orodja za odločanje o zaposlitvi, skrajšano kot AEDT.

Poglejmo, kako je zakon New Yorka opredelil ta orodja ali aplikacije, ki vključujejo odločanje o zaposlitvi:

  • »Izraz 'orodje za samodejno odločanje o zaposlitvi' pomeni kateri koli računalniški proces, ki izhaja iz strojnega učenja, statističnega modeliranja, podatkovne analitike ali umetne inteligence, ki izda poenostavljen rezultat, vključno z rezultatom, klasifikacijo ali priporočilom, ki se uporablja za bistveno pomoč ali diskrecijsko odločanje nadomestiti z odločitvami o zaposlitvi, ki vplivajo na fizične osebe. Izraz "orodje za samodejno odločanje o zaposlitvi" ne vključuje orodja, ki ne avtomatizira, podpira, bistveno ne pomaga ali nadomešča diskrecijskih procesov odločanja in ki bistveno ne vpliva na fizične osebe, vključno, vendar ne omejeno na, filter za neželeno pošto, požarni zid, protivirusno programsko opremo, kalkulator, preglednico, zbirko podatkov, nabor podatkov ali drugo zbirko podatkov« (NYC, Int 1894-2020, podpoglavje 25, oddelek 20-870).

Na kratko bom preučil to besedilo, saj je bistveno za celotno naravo in področje uporabe zakona.

Prvič, kot sem že večkrat omenil v svojih spisih, je ena najtežjih ovir pri pisanju zakonov o umetni inteligenci poskušati ustrezno opredeliti, kaj umetna inteligenca pomeni. Ni enotnega, vse dogovorjenega zakonsko neprebojnega standarda, ki bi ga vsi pristali. Obstajajo vse vrste definicij. Nekateri so v pomoč, nekateri ne. Oglejte si moje analize na povezava tukaj.

Morda vas bo zamikalo, da mislite, da ni posebej pomembno, kako lahko definiramo AI. Oprosti, ampak glede tega bi se motil.

Težava je v tem, da če je definicija umetne inteligence v določenem zakonu nejasno določena, omogoča tistim, ki razvijajo umetno inteligenco, da poskušajo zaobiti zakon z navideznimi trditvami, da njihova programska oprema ali sistem ni vgrajen v umetno inteligenco. Z veliko drznostjo bi trdili, da zakon ne velja za njihovo programsko opremo. Podobno lahko nekdo, ki uporablja programsko opremo, tudi trdi, da se zakon ne nanaša nanj, ker programska oprema ali sistem, ki ga uporablja, ne spada v zakonsko opredeljeno definicijo umetne inteligence.

Ljudje smo tako zapleteni.

Eden najbolj premetenih načinov, da se izognete zapletu zakona, ki ga ne podpirate, je, da trdite, da zakon za vas ne velja. V tem primeru bi poskušali postopoma razstaviti definicijo AEDT. Vaš cilj bi bil, ob predpostavki, da ne želite, da bi vam bil zakon na hrbtu, pravno trditi, da definicija v zakonu ni v skladu s tem, kaj je ali počne vaš računalniški sistem, povezan z zaposlitvijo.

Takemu zakonu je mogoče pomagati in včasih tudi omajati z namenom vključitve izključitvenih določil v definicijo.

Ponovno si oglejte definicijo AEDT, kot je navedena v tem zakonu. Upam, da ste opazili, da obstaja klavzula o izključitvi, ki pravi, da "… ne vključuje orodja, ki ne avtomatizira, podpira, bistveno ne pomaga ali nadomešča diskrecijskih procesov odločanja in ki bistveno ne vpliva na fizične osebe …".

Po eni strani je podlaga za vključitev takšne izključitve zelo koristna.

Zdi se, kot da nakazuje (po mojem laičnem mnenju), da mora AEDT zagotoviti poseben namen in se uporabiti na vsebinski način. Če je AEDT bežen ali obroben in če je odločitev o zaposlitvi še vedno bolj človeško ročno delo, morda uporabljenega programskega sistema ne bi smeli razumeti kot AEDT. Poleg tega, če programska oprema ali sistem ne vpliva "materialno" na fizične osebe (ljudi), potem se ne zdi vredno, da bi tako rekoč držali noge pri ognju.

Razumno, ne želite, da zakon pretirava s svojim obsegom in zajame vse, vključno s kuhinjskim koritom. To početje je v bistvu nepošteno in obremenjujoče za tiste, ki jih zakon ni nameraval zajeti. Lahko se ujamejo v močvirje, ki deluje kot ena od tistih ribjih mrež. Verjetno bi morali biti naši zakoni previdni, da ne bi nedolžnih potegnili v področje uporabe zakona.

Vse lepo in prav.

Pameten odvetnik se mora zavedati, da je lahko izključitvena klavzula nekakšna zakonita karta za izhod iz zapora (poleg tega ta zakon določa civilne in ne kazenske kazni, zato ven-iz-zapora pripomba je zgolj metaforična in za okusno pikantnost). Če bi nekdo trdil, da je podjetje uporabljalo AEDT pri obdelavi zaposlitev, bi bil eden od prvih načinov, kako poskusiti premagati to trditev, trditi, da je tako imenovani AEDT dejansko v izključujočem področju. Lahko poskusite pokazati, da tako imenovani AEDT ne avtomatizirati odločitev o zaposlitvi ali pa ne podpora odločitev o zaposlitvi ali pa ne bistveno pomagati or zamenjajte diskrecijske procese odločanja.

Nato se lahko odpravite po ovinkasti poti ugotavljanja, kaj v tem kontekstu pomenijo besede "avtomatizirati", "podpreti", "bistveno pomagati" ali "zamenjati". To je zelo priročna pravna zajčja luknja. Lahko bi prepričljivo trdili, da je programska oprema ali sistem, ki naj bi bil AEDT, del izključitvenih indikacij. Zato brez škode, brez prekrška glede tega zakona.

Očitno je, da se je treba za takšne zadeve posvetovati z odvetniki z licenco (tu ni naveden noben videz pravnega nasveta in to je povsem laično mnenje).

Želim povedati, da bo v tem novem zakonu dovolj prostora. Prostor za premikanje bo nekaterim delodajalcem, ki resnično uporabljajo AEDT, omogočil, da morda najdejo vrzel, da se izognejo uporabi AEDT. Druga plat tega kovanca je, da se lahko katera podjetja, ki resnično ne uporabljajo AEDT, ujamejo v ta zakon. Lahko se trdi, da je bilo tisto, kar so uporabljali, res AEDT, in morali bodo najti način, s katerim bodo dokazali, da njihova programska oprema ali sistemi niso spadali v AEDT in v določbo o izključitvi.

Lahko naredimo to drzno napoved:

  • Nedvomno bodo delodajalci, ki zavestno uporabljajo AEDT, ki se bodo morda poskušali izogniti svojim zakonskim obveznostim.
  • Neizogibno bodo delodajalci, ki ne uporabljajo AEDT, obsedeni s trditvami, da uporabljajo AEDT, zaradi česar se bodo morali »dodatno« potruditi, da pokažejo, da ne uporabljajo AEDT.

Nadalje bom razložil te številne permutacije in kombinacije, ko se bomo poglobili v to razpravo. Veliko več moramo prehoditi.

Uporaba AEDT sama po sebi ni del te težave, ki bi vzbujala očitne pomisleke, ampak način, kako AEDT izvaja svoja dejanja, povzroča pravni gnev. Bistvo je v tem, da če AEDT morda uvede tudi pristranskosti v zvezi z odločanjem o zaposlovanju, ste potem potencialno v vroči vodi (no, nekako).

Kako naj vemo, ali AEDT dejansko vnaša pristranskosti, obremenjene z umetno inteligenco, v prizadevanja za odločanje o zaposlitvi?

Odgovor v skladu s tem zakonom je, da je treba izvesti revizijo AI.

Prej sem pogosto obravnaval naravo revizij AI in kaj so, skupaj z opažanjem obstoječih slabosti in slabo definiranih vidikov, kot je na povezava tukaj in povezava tukaj, med številnimi drugimi podobnimi objavami. Preprosto povedano, ideja je, da tako kot lahko opravite finančno revizijo podjetja ali revizijo tehnologije, povezano z računalniškim sistemom, lahko opravite revizijo sistema AI. Z uporabo specializiranih revizijskih tehnik, orodij in metod preučujete in ocenjujete, iz česa je sestavljen sistem umetne inteligence, vključno s tem, da na primer poskušate ugotoviti, ali vsebuje takšne ali drugačne pristranskosti.

To je rastoče področje pozornosti.

Pričakujete lahko, da bo to podpodročje revizije, ki je namenjeno reviziji AI, še naprej raslo. Takoj očitno je, da bo vedno več sistemov umetne inteligence sproščenih na trg, posledično pa bo vedno več zahtev po revizijah umetne inteligence. Novi zakoni bodo pripomogli k temu. Tudi brez teh zakonov bo revizij umetne inteligence veliko, saj ljudje in podjetja zatrjujejo, da jim je umetna inteligenca storila krivico, in si bodo prizadevali zagotoviti oprijemljive dokumentirane znake, da je bila škoda prisotna in povezana z umetno inteligenco, ki se uporablja.

Revizorji umetne inteligence bodo priljubljeni in veliko povpraševanje po njih.

To je lahko razburljivo delo. Eden od morda vznemirljivih elementov vključuje poglobitev v najnovejšo in najboljšo AI. AI še naprej napreduje. Ko se bo to zgodilo, bo moral bistroumni revizor AI ostati na trnih. Če ste revizor, ki se je naveličal opravljanja vsakodnevnih običajnih revizij, vam vedno nova revizijska arena umetne inteligence, ki odpira oči, obeta (to pravim, da delno dvignem ugled revizorjev, saj so pogosto nenapovedani junaki, ki delajo v okopih in ponavadi zapostavljeni zaradi svojih prizadevanj).

Poleg tega sem bil pooblaščeni revizor računalniških sistemov (ena taka oznaka je CISA) in v mnogih letih večkrat opravljal revizije IT (informacijske tehnologije), vključno z revizijami umetne inteligence. Največkrat ne dobiš priznanja, ki si ga zasluži za takšna prizadevanja. Verjetno lahko ugibate zakaj. Na splošno revizorji ponavadi najdejo stvari, ki so napačne ali pokvarjene. V tem smislu so precej koristni, čeprav lahko nekateri to dojemajo kot slabo novico, glasnik slabih novic pa običajno ni posebej postavljen na piedestal.

Nazaj k obravnavani zadevi.

V zvezi z zakonom New Yorka, tukaj je tisto, kar pravi zakon o reviziji AI in iskanju odkritja pristranskosti AI:

  • »Izraz 'revizija pristranskosti' pomeni nepristransko oceno neodvisnega revizorja. Takšna revizija pristranskosti vključuje, vendar ni omejena na testiranje orodja za samodejno odločanje o zaposlitvi, da se oceni različen vpliv orodja na osebe katere koli kategorije komponente 1, ki jih morajo delodajalci prijaviti v skladu s pododdelkom (c) razdelka 2000e-8 naslova 42 zakonika Združenih držav, kot je določeno v delu 1602.7 naslova 29 kodeksa zveznih predpisov« (NYC, Int 1894-2020, podpoglavje 25, razdelek 20-870).

Če povzamemo, tukaj smo do zdaj pri razpakiranju tega zakona:

  • Zakon zajema avtomatizirana orodja za odločanje o zaposlitvi (AEDT)
  • Vključena je definicija vrst, da se ugotovi, kaj je AEDT
  • Opredelitev AEDT omenja tudi izključitvene določbe
  • Bistvo je, da želi zakon razkriti pristranskosti AI v AEDT
  • Da bi ugotovili, ali so pristranskosti umetne inteligence prisotne, je treba opraviti revizijo umetne inteligence
  • Revizija umetne inteligence bo verjetno pokazala morebitne pristranskosti umetne inteligence

Nato se lahko malo bolj poglobimo v pravo.

Tukaj je sestavljena odločitev o zaposlitvi:

  • »Izraz 'odločitev o zaposlitvi' pomeni preverjanje kandidatov za zaposlitev ali zaposlenih za napredovanje v mestu« (NYC, Int 1894-2020, podpoglavje 25, razdelek 20-870).

Upoštevajte, da omejevalni vidik "mesta" nakazuje, da se zadeva ukvarja samo z zaposlitvenimi okoliščinami v New Yorku. Prav tako je treba omeniti, da odločitev o zaposlitvi, kot je opredeljena, vključuje preverjanje kandidatov, kar je običajna konotacija tega, kar pojmujemo kot odločitev o zaposlitvi, poleg tega vključuje tudi napredovanja.

To je dvojna težava v smislu, da se bodo morala podjetja zavedati, da morajo biti na tekočem s tem, kako se njihov AEDT (če ga uporabljajo) uporablja za začetne zaposlitvene nastavitve in tudi pri napredovanju v podjetju. Verjetno lahko ugibate ali domnevate, da se mnoga podjetja ne bodo povsem zavedala elementa promocije, ki je tudi v tej rubriki. To dodatno konstrukcijo bodo neizogibno spregledali na lastno odgovornost.

Nato bom ponudil dodaten ključni izvleček zakona, da bi osvetlil bistvo tega, kar se v tem zakonu razlaga kot nezakonito:

  • »Zahteve za avtomatizirana orodja za odločanje o zaposlitvi. a. V mestu je nezakonito, da delodajalec ali agencija za zaposlovanje uporablja avtomatizirano orodje za odločanje o zaposlitvi za preverjanje kandidata ali zaposlenega za odločitev o zaposlitvi, razen če: 1. Takšno orodje ni bilo predmet revizije pristranskosti, ki je bila opravljena največ eno leto pred uporabo takega orodja; in 2. Povzetek rezultatov zadnje revizije pristranskosti takega orodja in datum distribucije orodja, za katerega se takšna revizija nanaša, sta bila pred uporabo javno dostopna na spletni strani delodajalca ali agencije za zaposlovanje. takšno orodje ...« (NYC, Int 1894-2020, podpoglavje 25, razdelek 20-871). Obstajajo dodatne podklavzule, ki si jih boste morda želeli ogledati, če vas močno zanima pravno besedilo.

Skeptiki in kritiki so trdili, da se to zdi nekoliko mlačno glede na razglašeno nezakonito dejavnost.

Pravijo, da se zakon le ozko in minimalno osredotoča na vodenje revizijo AI in oglaševanje rezultatov, ne pa o tem, ali je revizija umetne inteligence odkrila pristranskosti umetne inteligence in kakšne posledice je to imelo pri sprejemanju odločitev o zaposlitvi, ki spadajo na področje uporabe tega zakona. V bistvu je očitno protizakonito ne se odločite za izvedbo takšne revizije AI (kadar je to primerno, kot smo že omenili), poleg tega pa je tudi nezakonito v primeru, če izvedete revizijo AI, vendar ne objavite.

Zdi se, da zakon ne govori o vprašanju, ali so bile pristranskosti AI odkrite in prisotne ali ne. Podobno molk o tem, ali so pristranskosti umetne inteligence vplivale na kogarkoli, ki je povezan z pomembno dejavnostjo odločanja o zaposlitvi. Ključno je, da navidezno preprosto »zgolj« izvedemo revizijo AI in povemo o njej.

Ali ta zakon ne gre dovolj daleč?

Del protiargumenta za trditev, da je to navidezno zadovoljivo glede razpona ali obsega tega, kar ta zakon zajema, je, da če revizija umetne inteligence odkrije pristranskosti umetne inteligence in če so te pristranskosti povezane z določenimi primeri odločanja o zaposlitvi, oseba ali tako oškodovane osebe bi lahko preganjale delodajalca pod druga zakoni. Zato tega vidika ni treba vključiti v ta zakon.

Menda je namen tega zakona, da se takšne zadeve razkrijejo.

Ko bo ta neprimerna praksa osvetljena, bo mogoče uporabiti vse druge pravne poti, če obstajajo pristranskosti AI in vplivajo na ljudi. Brez tega zakona trdijo, da bi tisti, ki uporabljajo AEDT, to počeli, medtem ko bi morda divjali in imeli potencialno na tone pristranskosti AI, za katere tisti, ki iščejo zaposlitev, ali tisti, ki iščejo napredovanja, ne bi vedeli, da se dogaja.

Pripeljite jih na površje. Naj povedo. Pojdi pod pokrov. Poglejte, kaj je znotraj tega motorja. To je mantra v tem primeru. Na podlagi tega pojava in povedanosti se lahko izvedejo dodatni ukrepi.

Poleg iskanja pravnih ukrepov zaradi razkritja, da je revizija umetne inteligence morda poročala o pristranskosti umetne inteligence, obstaja tudi prepričanje, da bo objava teh rezultatov povzročila posledice za ugled. Delodajalci, za katere se prikazuje, da uporabljajo AEDT s pristranskostjo AI, bodo verjetno utrpeli družbeni gnev, na primer prek družbenih medijev in podobno. Izpostavljeni bodo zaradi svojega hudobnega početja in osramočeni bodo, da bodo popravili svoje vedenje, lahko pa se tudi znajdejo brez ljudi, ki bi tam iskali delo zaradi pomislekov, da pristranskosti umetne inteligence preprečujejo zaposlovanje ali uzurpirajo napredovanja.

Navedene kazni, povezane z nezakonitostjo, so naslednje:

  • »Kazni. a. Vsaka oseba, ki krši katero koli določbo tega podpoglavja ali katerega koli pravila, razglašenega v skladu s tem podpoglavjem, je odgovorna za civilno kazen v višini največ 500 USD za prvo kršitev in vsako dodatno kršitev, ki se zgodi na isti dan kot prva kršitev, in ne manj kot 500 $ in ne več kot 1,500 $ za vsako naslednjo kršitev« (NYC, Int 1894-2020, podpoglavje 25, oddelek 20-872). Obstajajo dodatne podklavzule, ki si jih boste morda želeli ogledati, če vas močno zanima pravno besedilo.

Skeptiki in kritiki menijo, da kazni niso dovolj stroge. Veliko podjetje bi se domnevno posmehovalo ali smejalo majhnim denarnim kaznim v dolarjih. Drugi poudarjajo, da bi lahko bila kazen na koncu večja, kot se zdi na prvi pogled, tako da če bi imelo podjetje vsak dan tisoč dolarjev kršitev (samo en scenarij, obstaja veliko drugih scenarijev), bi bila celoletna vrednost približno 365,000 $, ob predpostavki, da je podjetje celo leto preprosto ignoriralo zakon in se mu je izognilo (zdi se težko predstavljati, vendar bi se lahko zgodilo in se lahko zgodi celo dlje ali zaradi višjega vrhunca dnevnih kazni, v teoriji).

Nekateri so medtem zaskrbljeni zaradi manjših podjetij in s tem povezanih kazni. Če je malo podjetje, ki komaj shaja konec s koncem, deležno kazni in tega domnevno ni storilo zaradi namerne motivacije, da bi zaobšlo zakon, bi lahko kazni bistveno vplivale na njihovo nihajoče poslovanje.

Problematični premisleki Keystone

Za vas imam preprosto in jasno vprašanje.

Kaj natančno je v kontekstu tega zakona revizija umetne inteligence?

Problematično je, da v besedilu zakona ni dokončne navedbe. Zdi se, da nam je bilo povedano le, da je treba "revizijo pristranskosti" izvesti z "nepristransko oceno neodvisnega revizorja" (v skladu z besedilom zakona).

Lahko se pelješ s tovornjakom Mac skozi to zevajočo luknjo.

Evo zakaj.

Razmislite o tem precej zaskrbljujočem primeru. Prevarant stopi v stik s podjetjem v New Yorku in pojasni, da nudijo storitev, tako da bodo opravili tako imenovano "revizijo pristranskosti" njihovega AEDT. Zavezujejo se, da bodo to storili "nepristransko" (karkoli že to pomeni). Imajo se za neodvisnega revizorja in so se namazali kot enega. Ni potrebe po kakršnem koli računovodskem ali revizijskem usposabljanju, diplomah, certifikatih ali čemer koli podobnem. Morda se potrudijo, da natisnejo nekaj vizitk ali na hitro postavijo spletno stran, ki hvali njihov status neodvisnega revizorja.

Podjetju bodo zaračunali skromno provizijo, recimo 100 USD. Njihova storitev je sestavljena iz tega, da morda postavijo nekaj vprašanj o AEDT in nato razglasijo, da je AEDT nepristranski. Nato pošljejo poročilo, ki je veliko eno stran in navaja "rezultate" tako imenovane revizije. Podjetje to vestno objavi na svoji spletni strani.

Ali je podjetje spoštovalo ta zakon?

Ti mi povej.

Zdi se, da imajo.

Morda boste takoj presenečeni, da je bila revizija opravljena površno (to je vljudno in velikodušno v tem posebnem scenariju). Morda vas moti, da je bilo zaznavanje pristranskosti (ali pomanjkanje le-tega) morda v bistvu vnaprej določeno (voila, zdi se, da ste brez pristranskosti). Morda boste vznemirjeni, da bi lahko objavljeni rezultati dali avro, da ste opravili strogo revizijo s strani dobrovernega izkušenega, usposobljenega, izkušenega in pooblaščenega revizorja.

Da, to približno poveča stvari.

Delodajalec bi si lahko oddahnil, ker je izpolnil to "neumno" zahtevo, in presneto vesel, da ga je stalo le pičlih 100 dolarjev. Delodajalec bi morda interno in tiho spoznal, da je bila neodvisna revizija šarada, vendar očitno o tem ne odločajo sami. Predstavili so jim domnevno neodvisnega revizorja, revizor je opravil delo, za katerega je revizor rekel, da je skladno, podjetje je za to plačalo, dobili so rezultate in rezultate objavili.

Nekateri delodajalci bodo to storili in ugotovili, da delajo miži-mežik skladnost z zakonom. Kljub temu bodo verjeli, da so popolnoma skladni.

Drugi delodajalci bi lahko bili prevarani. Vse, kar vedo, je potreba po spoštovanju zakona. Na njihovo srečo (vsaj tako domnevajo) jih kontaktira "neodvisni revizor" in jim obljubi, da je pritožbeno revizijo in rezultat mogoče dobiti za 100 USD. Da bi se izognili dnevni kazni v višini 500 dolarjev ali več, podjetje misli, da jim je bilo izročeno darilo z nebes. Plačajo 100 dolarjev, izvede se "revizija", dobijo brezplačno potrdilo o svojem pomanjkanju pristranskosti glede umetne inteligence, objavijo rezultate in pozabijo na to do naslednjič, ko bodo morali opraviti še eno takšno revizijo. .

Kako naj bi vsako podjetje v New Yorku, za katerega velja ta zakon, vedelo, kaj je dobroverna skladnost z zakonom?

Če vas še ne kruli v želodcu, lahko stvari še poslabšamo. Upam, da v zadnjih nekaj urah niste jedli, saj bo naslednji zasuk težko ohraniti nedotaknjenega.

Ste pripravljeni?

Izkazalo se je, da je ta navidezni ponudnik storitev bolj prevarant, kot ste morda mislili. Podjetje pridobijo, da se prijavi za storitev v vrednosti 100 USD, da kot neodvisni revizor opravi nepristransko revizijo pristranskosti. Glej in glej, opravijo "revizijo" in ugotovijo, da obstajajo pristranskosti v vsakem kotičku in kotu AEDT.

Imajo pristranskost AI kot napad ščurkov.

Joj, pravi podjetje, kaj lahko storimo glede tega?

Ni problema, jim rečejo, te pristranskosti umetne inteligence lahko popravimo namesto vas. Stalo vas bo samo 50 USD za vsako tako ugotovljeno pristranskost. V redu, podjetje pravi, prosim, popravite jih, hvala za to. Ponudnik storitev naredi malo kodiranja in pove podjetju, da so popravili sto pristranskosti umetne inteligence in jim bodo zato zaračunali 5,000 $ (to je 50 $ na pristranskost umetne inteligence, ki jo je treba popraviti, pomnoženo s 100 ugotovljenimi).

Ojej, podjetje se počuti utesnjeno, vendar je še vedno bolje, kot da bi se soočili s kršitvijo v višini 500 $ ali več na dan, tako da plačajo "neodvisnemu revizorju" in nato dobijo novo poročilo, ki prikazuje, da so zdaj nepristranski. To ponosno objavljajo na svoji spletni strani.

Niti malo ne vedo, da je bilo to neumnost, goljufija, prevara.

Morda boste vztrajali, da bi moral biti ta ponudnik storitev kaznovan za svoje zvijače. Ujeti in ustaviti te prevarante bo veliko težje, kot si lahko predstavljate. Enako kot bi lovljenje princev s sedežem v tujini, ki imajo bogastvo za vas, verjetno v neki tuji deželi zunaj dosega zakonov Združenih držav, se lahko enako zgodi tudi v tem primeru.

Pričakujte, da se bo zaradi tega novega zakona pojavila domača obrt.

Tam bodo dobroverni revizorji, ki bodo skušali zagotoviti te storitve. Dobro za njih. Za to delo bodo šli maloverni revizorji. Tam bodo lažno razglašeni revizorji, ki bodo spremljali to delo.

Omenil sem, da je scenarij ponudnika storitev vključeval zahtevo za 100 USD za tako imenovano revizijo AI. To je bil le izmišljen nadomestni znak. Mogoče bodo nekateri zaračunali 10 $ (zdi se površno). Morda kakšnih 50 $ (še vedno pomanjkljivo). itd.

Recimo, da ponudnik storitev reče, da bo delo stalo 10,000 USD.

Ali 100,000 $ za to.

Morda 1,000,000 $ za to.

Nekateri delodajalci ne bodo imeli pojma o tem, koliko bi to lahko ali moralo stati. Trženje teh storitev bo brezplačno za vse. To je zakon za ustvarjanje denarja za tiste, ki zakonito izvajajo te storitve, in ustvarjalec denarja za tiste, ki so pri tem tudi podkupni. Težko bo vedeti, kateri je kateri.

Prosil vas bom tudi, da razmislite o drugi zevajoči luknji.

Kaj natančno v kontekstu tega zakona predstavlja pristranskost AI?

Razen omembe kodeksa zveznih predpisov Združenih držav Amerike (to ne odgovarja posebej na vprašanje pristranskosti umetne inteligence in torej ne služi kot vmesna vrzel ali rešitev zadeve), bi težko trdili, da ta nova zakon zagotavlja kakršen koli vsebinski pokazatelj, kaj so pristranskosti AI. Še enkrat, to bo popolnoma odprto za zelo različne interpretacije in ne boste vedeli, kaj je bilo iskano, kaj je bilo najdeno itd. Poleg tega bo delo, ki ga opravljajo celo dobroverni revizorji AI, skoraj verjetno neprimerljivo z drugimi, tako da bo vsak od njih uporabljal svoje lastniške definicije in pristope.

Skratka, s strahom in zaskrbljenostjo lahko opazujemo, na kaj bodo delodajalci naleteli zaradi tega neumno oblikovanega, a dobronamernega zakona:

  • Nekateri delodajalci bodo vedeli za zakon ter ga resno in v celoti upoštevali po svojih najboljših močeh
  • Nekateri delodajalci bodo vedeli za zakon in le malo upoštevali najtanjšo, najcenejšo in morda neprijetno pot, ki jo lahko najdejo ali ki pride na njihov prag.
  • Nekateri delodajalci bodo vedeli za zakon in menili, da niso v obsegu zakona, zato ne bodo storili ničesar glede tega (čeprav se izkaže, da so morda v obsegu)
  • Nekateri delodajalci bodo vedeli za zakon in se odločno odločili, da ga bodo ignorirali, morda v prepričanju, da ga nihče ne bo opazil ali da se zakon ne bo izvajal ali da bo ugotovljeno, da je zakon neizvršljiv itd.
  • Nekateri delodajalci ne bodo vedeli za zakon in jih bodo ujeli na ploske noge, ko se bodo trudili, da bi ga upoštevali
  • Nekateri delodajalci ne bodo vedeli za zakon in jih bodo prevaranti nesrečno prevzeli
  • Nekateri delodajalci ne bodo vedeli za zakon, niso v obsegu, vendar jih kljub temu prevarajo prevaranti, ki jih prepričujejo, da so v okviru
  • Nekateri delodajalci ne bodo vedeli za zakon in ne bodo storili ničesar v zvezi z njim, hkrati pa čudežno nikoli ne bodo ujeti ali obsojeni zaradi svojega nadzora
  • Ostalo

Ključni dejavnik, ki ga morate upoštevati, je obseg ali obseg, povezan s tem novim zakonom.

Glede na različne objavljene statistične podatke o številu podjetij v New Yorku je število običajno označeno kot približno 200,000 podjetij (uporabimo to kot velikostni red). Ob predpostavki, da je to razumen približek, ta novi zakon domnevno velja za ta podjetja kot delodajalce. Zato vzemite zgoraj omenjene več načinov, na katere se bodo delodajalci odzvali na ta zakon, in razmislite, koliko jih bo v vsakem od različnih veder, ki sem jih pravkar omenil.

To je precej osupljivo vprašanje skaliranja.

Poleg tega je po poročanih statističnih podatkih v New Yorku morda 4 milijone delovnih mest v zasebnem sektorju, plus približno 300,000 vladnih delavcev, ki jih zaposluje vlada New Yorka (spet uporabite to kot velikostni red in ne kot natančno število). Če upoštevate, da so nova zaposlovanja na videz v okviru tega novega zakona, skupaj z napredovanji, povezanimi z vsemi tistimi obstoječimi in bodočimi delavci, je število zaposlenih, ki se jih bo tako ali drugače dotaknil ta zakon, odkrito osupljivo .

Veliko jabolko ima nov zakon, ki se na prvi pogled zdi neškodljiv in navidezno zanemarljiv ali vsakdanji, a ko se zaveš dejavnikov obsega, se ti lahko zvrti v glavi

zaključek

Že na začetku te razprave sem omenil, da gre za dobronameren nov zakon.

Vse, kar sem pravkar opisal kot potencialne vrzeli, opustitve, vrzeli, težave in podobno, je mogoče zlahka predvideti. To ni raketna znanost. Dodal bi lahko, da je v tem zakonu še več notranjih pomislekov in motečih vidikov, ki jih zaradi prostorske stiske v tem dokumentu nisem omenil.

Najdete jih tako hitro, kot bi lahko ustrelili ribe v sodu.

Tovrstne zakone je treba skrbno oblikovati, da bi poskušali preprečiti tovrstne zahrbtne zaključke. Predvidevam, da so resni skladatelji skušali napisati zakon, za katerega so verjeli, da je razmeroma železen in bi morda v najslabšem primeru imel nekaj drobnih kapljic tu ali tam. Žal gre za gasilsko cev kapnic. Potrebovali boste veliko lepilnega traku.

Ali bi lahko zakon napisali na bolj razjasnjen način, da bi zaprli te precej očitne vrzeli in s tem povezana vprašanja?

Da, v veliki meri.

Če je temu tako, bi lahko ogorčeno opozorili, da bi bil tak zakon nedvomno veliko daljši. Vedno obstaja kompromis med tem, da zakon, ki traja in traja in postane okoren, v primerjavi s tem, da je jedrnat in strnjen. Nočete pa pridobiti jedrnatosti ob izgubi tega, kar bi bila vsebinska in zaslužna jasnost in specifičnost. Kratek zakon, ki dovoljuje norčije, prinaša težave. Daljši zakon, tudi če je na videz bolj zapleten, bi bil običajno vreden kompromis, če bi se izognil, preprečil ali vsaj zmanjšal težave na nižji stopnji v fazi sprejemanja.

Sveti Avguštin je znamenito rekel: »Zdi se mi, da nepravičen zakon sploh ni zakon.«

Lahko bi ponudili posledico, da je pravičen zakon, ki je sestavljen iz problematičnega jezika, zakon, ki prosi za ustvarjanje trdovratnih težav. Zdi se, da nam v tem primeru ostajajo modre besede velikega pravnika Oliverja Wendella Holmesa ml., namreč da je stran zgodovine vredna pol funta logike.

Bodite pozorni, saj se bo kmalu začela pisati zgodovina.

Vir: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- biases-audits-kicks-into-gear/