Šokantno razkritje etike umetne inteligence, da bi lahko bilo usposabljanje umetne inteligence, da bo strupena ali pristranska, koristno, tudi za te avtonomne samovozeče avtomobile

Tukaj je stara vrstica, za katero sem prepričan, da ste jo že slišali.

Potreben je, da enega poznaš.

Morda se ne zavedate, da je to izraz, ki ga je mogoče zaslediti v zgodnjih 1900-ih in se je običajno skliceval na prestopnike (druge različice izraza segajo v preteklost, na primer v 1600. stoletje). Primer uporabe tega izreka vključuje predstavo, da če želite ujeti tata, morate za to uporabiti tata. To kaže na trditev, da je za to potrebno vedeti. Številni filmi in TV-oddaje so izkoristili to priročno modrost in pogosto prikazujejo, da je edino izvedljivo sredstvo za ugrabitev prevaranta najem enako pokvarjenega prevaranta, da bi preganjal storilca.

Pri prestavljanju prestav bi lahko nekateri uporabili to isto logiko, da bi trdili, da bi bil primeren način za ugotavljanje, ali nekdo uteleša nepotrebne pristranskosti in diskriminatorna prepričanja, najti nekoga, ki že goji takšne nagnjenosti. Verjetno bo oseba, ki je že polna pristranskosti, laže začutila, da je tudi ta drugi človek do roba napolnjen s strupenostjo. Spet je potrebno vedeti, da je zapovedana mantra.

Vaša začetna reakcija na možnost uporabe pristranske osebe za odkrivanje druge pristranske osebe je lahko skepticizem in nejevernost. Ali ne moremo ugotoviti, ali ima nekdo nepristranskost, tako da jih zgolj preučimo in se ne zatečemo k iskanju nekoga drugega podobne narave? Zdelo bi se nenavadno, da bi namenoma poskušali odkriti nekoga, ki je pristranski, da bi odkrili druge, ki so prav tako strupeno pristranski.

Domnevam, da je deloma odvisno od tega, ali ste pripravljeni sprejeti domnevni refren, da ga je potrebno poznati. Upoštevajte, da to ne pomeni, da edini način, da ujamete tatu, zahteva, da izključno in vedno uporabljate tatu. Lahko bi razumno trdili, da je to le dodatna pot, ki jo je mogoče ustrezno upoštevati. Morda ste včasih pripravljeni izkoristiti možnost uporabe tata, da ujamete tatu, medtem ko bi druge okoliščine to lahko naredile za nedoumljivo taktiko.

Uporabite pravo orodje za pravo nastavitev, kot pravijo.

Zdaj, ko sem postavil te osnove, lahko nadaljujemo z morda vznemirljivim in navidez šokantnim delom te zgodbe.

Ste pripravljeni?

Področje umetne inteligence aktivno sledi istemu načelu, ki ga včasih potrebuje, da ga poznamo, zlasti v primeru, ko poskušamo odkriti umetno inteligenco, ki je pristranska ali deluje na diskriminatoren način. Da, osupljiva ideja je, da bi morda namenoma želeli oblikovati umetno inteligenco, ki je popolnoma in nesramno pristranska in diskriminatorna, da bi to uporabili kot sredstvo za odkrivanje in odkrivanje druge umetne inteligence, ki ima enak videz strupenosti. Kot boste čez trenutek videli, je v ozadju zadeve številna moteča vprašanja etike umetne inteligence. Za moje celotno stalno in obsežno pokrivanje etike umetne inteligence in etične umetne inteligence glej povezava tukaj in povezava tukaj, samo da navedem nekaj.

Predvidevam, da bi lahko to uporabo strupene umetne inteligence izrazili kot pregovorno koncept boja proti ognju z ognjem (za prikaz te situacije lahko uporabimo veliko evfemizmov in ilustrativnih metafor). Ali pa, kot je bilo že poudarjeno, bi se lahko skromno sklicevali na trditev, da je treba človeka spoznati.

Splošni koncept je, da namesto da bi samo poskušali ugotoviti, ali dani sistem AI vsebuje nepotrebne pristranskosti z uporabo običajnih metod, bi morda morali uporabiti tudi manj konvencionalna sredstva. Eno takih nekonvencionalnih sredstev bi bilo oblikovanje AI, ki vsebuje vse najhujše pristranskosti in družbeno nesprejemljive strupenosti, in nato uporabo te umetne inteligence za pomoč pri odpravljanju druge umetne inteligence, ki ima enake nagnjenosti k slabemu.

Ko to na hitro pomislite, se zagotovo zdi povsem smiselno. Lahko bi si prizadevali zgraditi umetno inteligenco, ki je maksimalno strupena. Ta strupena umetna inteligenca se nato uporablja za odkrivanje druge umetne inteligence, ki ima prav tako strupenost. Za takrat razkrito »slabo« umetno inteligenco se lahko z njo spopademo tako, da odpravimo strupenost in popolnoma opustimo AI (glejte moj prispevek o razpadu ali uničenju AI na tukaj povezava), ali zaprtje AI (glejte moje poročilo o zaprtju AI na tukaj povezava), ali naredite karkoli drugega, kar se vam zdi primerno.

Protiargument je, da bi morali preučiti svoje glave, da namerno in voljno oblikujemo umetno inteligenco, ki je strupena in polna pristranskosti. Nekateri bi opominjali, da je to zadnja stvar, o kateri bi morali razmišljati. Osredotočite se na to, da bo umetna inteligenca v celoti sestavljena iz dobrote. Ne osredotočajte se na oblikovanje umetne inteligence, ki vsebuje zlo in odpadke nepotrebnih pristranskosti. Že sam pojem takšnega prizadevanja se nekaterim zdi odvraten.

Glede tega kontroverznega iskanja je več pomislekov.

Morda bo misija oblikovanja strupene umetne inteligence zgolj opogumila tiste, ki želijo izdelati umetno inteligenco, ki je sposobna spodkopati družbo. Kot da bi rekli, da je izdelava umetne inteligence, ki ima neprimerne in neprijetne pristranskosti, popolnoma v redu. Brez skrbi, brez obotavljanja. Poskusite oblikovati strupeno umetno inteligenco po svoji volji, glasno sporočamo ustvarjalcem umetne inteligence po vsem svetu. To je (mig-mežik) vse v imenu dobrote.

Poleg tega predpostavimo, da se ta strupena umetna inteligenca ujame. Lahko se zgodi, da AI uporabljajo in ponovno uporabljajo številni drugi graditelji AI. Sčasoma se strupena umetna inteligenca skrije v vse vrste sistemov AI. Lahko bi naredili analogijo z oblikovanjem virusa, ki spodkopava človeka, ki pobegne iz domnevno zaprtega laboratorija. Naslednja stvar, ki jo veš, je prekleta stvar povsod in mi smo se izbrisali.

Počakajte sekundo, nasprotnik tem protiargumentom gre, divjate se z vsemi vrstami norih in nepodprtih domnev. Globoko vdihni. Pomiri se.

Varno lahko naredimo AI, ki je strupena, in jo zadržimo v zaprtih prostorih. S strupeno umetno inteligenco lahko poiščemo in pomagamo zmanjšati vse večjo razširjenost umetne inteligence, ki ima na žalost neupravičeno pristranskost. Vsak drug od teh nesmiselno divjih in neutemeljenih vzklikanj snežne kepe so zgolj kolenski odzivi in ​​na žalost neumni in naravnost nespametni. Ne poskušajte vreči otroka ven z vodo za kopel, opozorjeni ste.

Razmišljajte o tem na ta način, trdijo zagovorniki. Ustrezna izdelava in uporaba strupene umetne inteligence za namene raziskovanja, ocenjevanja in detektivskega delovanja za odkrivanje druge družbeno žaljive umetne inteligence je vreden pristop, ki bi ga morali pošteno pretresti. Odložite svoje izpuščaje. Pridi na zemljo in trezno poglej na to. Naše oko je uprto v nagrado, in sicer razkrivanje in odpravljanje prenatrpanosti sistemov umetne inteligence, ki temeljijo na pristranskosti, in zagotavljanje, da nas kot družba ne preplavi strupena umetna inteligenca.

Obdobje. Pika.

Obstajajo različni ključni načini za poglobitev tega pojma uporabe strupene ali pristranske umetne inteligence v koristne namene, vključno z:

  • Nastavite nize podatkov, ki namerno vsebujejo pristranske in v celoti strupene podatke, ki jih je mogoče uporabiti za usposabljanje umetne inteligence o tem, kaj ne storiti in/ali na kaj je treba paziti
  • Uporabite takšne nabore podatkov za usposabljanje modelov strojnega učenja (ML) in globokega učenja (DL) o odkrivanju pristranskosti in ugotavljanju računalniških vzorcev, ki povzročajo družbeno toksičnost
  • Uporabite ML/DL, izurjen za strupenost, za drugo umetno inteligenco, da ugotovite, ali je ciljna umetna inteligenca potencialno pristranska in strupena
  • Dajte na voljo ML/DL, usposobljeno za toksičnost, da predstavite graditeljem umetne inteligence, na kaj je treba paziti, da bodo lahko zlahka pregledali modele in videli, kako nastajajo algoritemsko prežete pristranskosti
  • Ponazorite nevarnosti strupene umetne inteligence kot del etike umetne inteligence in etičnega ozaveščanja o umetni inteligenci, vse povedano v tej seriji zgledov umetne inteligence, ki je slaba do kosti.
  • Ostalo

Preden se poglobimo v meso teh več poti, vzpostavimo nekaj dodatnih temeljnih podrobnosti.

Morda se nejasno zavedate, da je eden najglasnejših glasov teh dni na področju umetne inteligence in celo zunaj področja umetne inteligence zahtevati večjo podobnost etične umetne inteligence. Oglejmo si, kaj pomeni sklicevanje na etiko umetne inteligence in etično umetno inteligenco. Poleg tega lahko postavimo oder tako, da raziščemo, kaj mislim, ko govorim o strojnem učenju in globokem učenju.

En poseben segment ali del etike umetne inteligence, ki je bil deležen velike medijske pozornosti, je umetna inteligenca, ki kaže nenaklonjene pristranskosti in neenakosti. Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Čez trenutek bom z vami delil nekaj splošnih načel, na katerih temelji etika umetne inteligence. Tu in tam je veliko tovrstnih seznamov. Lahko bi rekli, da še ni enotnega seznama univerzalne privlačnosti in soglasja. To je žalostna novica. Dobra novica je, da so vsaj na voljo seznami etike AI in so ponavadi precej podobni. Vse skupaj nakazuje, da z nekakšno obliko utemeljene konvergence iščemo pot do splošne skupnosti tega, iz česar je sestavljena etika umetne inteligence.

Najprej na kratko pokrijmo nekaj splošnih etičnih predpisov umetne inteligence, da ponazorimo, kaj bi moralo biti ključnega pomena za vsakogar, ki ustvarja, uporablja ali uporablja AI.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da so "samo koderji" ali tisti, ki programirajo umetno inteligenco, podvrženi spoštovanju konceptov etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

Prepričajmo se tudi, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli super inteligentno AI, je možno, da bi bila taka AI na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne AI kot možnosti glej pokritost tukaj).

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Kaj je še mogoče storiti glede vsega tega?

Vrnimo se na prejšnji seznam, kako se poskusiti spopasti s pristranskostjo AI ali strupeno umetno inteligenco z uporabo nekoliko nekonvencionalnega pristopa »potreben je, da ga poznaš«. Spomnimo se, da je seznam vseboval te bistvene točke:

  • Nastavite nize podatkov, ki namerno vsebujejo pristranske in v celoti strupene podatke, ki jih je mogoče uporabiti za usposabljanje umetne inteligence o tem, kaj ne storiti in/ali na kaj je treba paziti
  • Uporabite takšne nabore podatkov za usposabljanje modelov strojnega učenja (ML) in globokega učenja (DL) o odkrivanju pristranskosti in ugotavljanju računalniških vzorcev, ki povzročajo družbeno toksičnost
  • Uporabite ML/DL, izurjen za strupenost, za drugo umetno inteligenco, da ugotovite, ali je ciljna umetna inteligenca potencialno pristranska in strupena
  • Dajte na voljo ML/DL, usposobljeno za toksičnost, da predstavite graditeljem umetne inteligence, na kaj je treba paziti, da bodo lahko zlahka pregledali modele in videli, kako nastajajo algoritemsko prežete pristranskosti
  • Ponazorite nevarnosti strupene umetne inteligence kot del etike umetne inteligence in etičnega ozaveščanja o umetni inteligenci, vse povedano v tej seriji zgledov umetne inteligence, ki imajo težave s slabimi otroki.
  • Ostalo

Od blizu si bomo ogledali prvo od teh pomembnih točk.

Nastavitev podatkovnih nizov toksičnih podatkov

Pronicljiv primer poskusa vzpostavitve podatkovnih nizov, ki vsebujejo neprijetne družbene pristranskosti, je nabor podatkov CivilComments iz zbirke, ki jo kurira WILDS.

Najprej nekaj hitrega ozadja.

WILDS je odprtokodna zbirka podatkovnih nizov, ki jih je mogoče uporabiti za usposabljanje ML/DL. Primarni navedeni namen WILDS-a je, da razvijalcem umetne inteligence omogoča enostaven dostop do podatkov, ki predstavljajo distribucijskih premikov na različnih specifičnih področjih. Nekatere domene, ki so trenutno na voljo, zajemajo področja, kot so živalske vrste, tumorji v živih tkivih, gostota glav pšenice in druga področja, kot so CivilComments, ki jih bom takoj opisal.

Obravnavanje distribucijskih premikov je ključni del pravilne izdelave sistemov AI ML/DL. Tukaj je dogovor. Včasih se izkaže, da so podatki, ki jih uporabljate za usposabljanje, precej drugačni od podatkov testiranja ali »v divjini«, zato je vaš domnevno izurjen ML/DL odvisen od tega, kakšen bo resnični svet. Pronicljivi graditelji umetne inteligence bi morali usposobiti svoje ML/DL za spopadanje s takšnimi premiki distribucije. To bi moralo biti storjeno vnaprej in ne sme biti presenečenje, ki bi pozneje zahtevalo prenovo ML/DL per se.

Kot je pojasnjeno v prispevku, ki je predstavil WILDS: »Premiki distribucije – kjer se distribucija usposabljanja razlikuje od distribucije testov – lahko znatno poslabša natančnost sistemov strojnega učenja (ML), ki so nameščeni v naravi. Kljub njihovi vseprisotnosti v uvajanju v resničnem svetu so ti premiki distribucije premalo zastopani v nizih podatkov, ki se danes pogosto uporabljajo v skupnosti ML. Da bi odpravili to vrzel, predstavljamo WILDS, kurirano merilo uspešnosti 10 podatkovnih nizov, ki odražajo raznoliko paleto premikov distribucije, ki se seveda pojavijo v resničnih aplikacijah, kot so premiki po bolnišnicah za identifikacijo tumorjev; preko pasti s kamerami za spremljanje prostoživečih živali; in med časom in lokacijo v satelitskem slikanju in kartiranje revščine« (v prispevku z naslovom »WILDS: A Benchmark of in-the-Wild Distribution Shifts« Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu in drugi).

Število takšnih naborov podatkov WILDS se še naprej povečuje in narava naborov podatkov se na splošno izboljšuje, da bi okrepili vrednost uporabe podatkov za usposabljanje ML/DL.

Podatkovni niz CivilComments je opisan takole: »Samodejni pregled besedila, ki ga ustvarijo uporabniki – npr. zaznavanje strupenih komentarjev – je pomembno orodje za moderiranje velikega obsega besedila, napisanega na internetu. Na žalost je predhodno delo pokazalo, da takšni klasifikatorji strupenosti zaznavajo pristranskost v podatkih o usposabljanju in lažno povezujejo strupenost z omembo določene demografije. Te vrste napačne korelacije lahko znatno poslabšajo učinkovitost modela pri določenih podpopulacijah. To vprašanje preučujemo s spremenjeno različico nabora podatkov CivilComments« (kot je objavljeno na spletni strani WILDS).

Razmislite o niansah neljubih spletnih objav.

Nedvomno ste naleteli na strupene komentarje pri uporabi skoraj vseh vrst družbenih medijev. Zdi se vam skoraj nemogoče, da bi se čarobno izognili jedki in prepadni vsebini, ki se zdi, da je danes razširjena. Včasih je vulgarno gradivo subtilno in morda morate brati med vrsticami, da bi razumeli bistvo pristranskega ali diskriminatornega tona ali pomena. V drugih primerih so besede očitno strupene in ne potrebujete mikroskopa ali posebnega dekodirnega obroča, da bi ugotovili, kaj pomenijo odlomki.

CivilComments je nabor podatkov, ki je bil sestavljen, da bi poskusili oblikovati AI ML/DL, ki lahko računalniško zazna strupeno vsebino. Tukaj je tisto, na kar so se osredotočili raziskovalci, na katerih temeljijo prizadevanja: »Nenamerna pristranskost pri strojnem učenju se lahko kaže kot sistemske razlike v uspešnosti za različne demografske skupine, kar bi lahko povečalo obstoječe izzive pravičnosti v družbi na splošno. V tem prispevku uvajamo zbirko meritev, ki ne določajo praga, ki zagotavljajo niansiran pogled na to nenamerno pristranskost, pri čemer upoštevamo različne načine, na katere se lahko porazdelitev ocene klasifikatorja razlikuje med določenimi skupinami. Predstavljamo tudi velik nov testni nabor spletnih komentarjev z opombami, pridobljenimi iz množice, za reference identitete. To uporabljamo, da pokažemo, kako je mogoče naše metrike uporabiti za iskanje novih in potencialno subtilnih nenamernih pristranskosti v obstoječih javnih modelih« (v prispevku z naslovom »Nunirane metrike za merjenje nenamerne pristranskosti z realnimi podatki za klasifikacijo testov« Daniela Borkana, Lucasa Dixona, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Če tej zadevi namenite široko kontemplativno razmišljanje, se boste morda začeli spraševati, kako lahko razločite, kaj je strupen komentar od tega, kaj ni strupen komentar. Ljudje se lahko radikalno razlikujejo glede tega, kaj razumejo kot naravnost strupeno besedilo. Ena oseba je lahko ogorčena nad določeno spletno pripombo ali komentarjem, ki je objavljen na družbenih omrežjih, medtem ko nekoga drugega morda sploh ne vznemirja. Pogosto se trdi, da je pojem strupenega komentarja povsem nedorečen predpis. Je kot umetnost, pri čemer je običajno rečeno, da se umetnost razume le v očeh opazovalca, prav tako pa so pristranske ali strupene pripombe samo v očeh opazovalca.

Balderdash, nekaj odgovarja. Vsakdo razumnega razuma lahko ugotovi, ali je spletna pripomba strupena ali ne. Ni vam treba biti raketni znanstvenik, da ugotovite, kdaj je neka objavljena jedka žalitev polna pristranskosti in sovraštva.

Seveda se družbene navade skozi čas spreminjajo in spreminjajo. Kar še pred časom morda ni veljalo za žaljivo, je danes mogoče videti kot grozljivo narobe. Poleg tega bi bilo mogoče stvari, izrečene pred leti, ki so bile nekoč videti kot neupravičeno pristranske, mogoče reinterpretirati v luči sprememb pomenov. Medtem drugi trdijo, da je strupen komentar vedno strupen, ne glede na to, kdaj je bil prvotno objavljen. Lahko bi trdili, da strupenost ni relativna, ampak je absolutna.

Zadeva s poskusom ugotavljanja, kaj je strupeno, je lahko kljub temu precej težka uganka. To težavno zadevo lahko podvojimo tako, da poskušamo oblikovati algoritme ali umetno inteligenco, ki lahko ugotovi, kaj je kaj. Če ljudje težko izvajajo takšne ocene, je programiranje računalnika verjetno enako ali bolj problematično, pravijo nekateri.

Eden od pristopov k vzpostavitvi naborov podatkov, ki vsebujejo strupeno vsebino, vključuje uporabo metode množičnega zbiranja podatkov za ocenjevanje ali oceno vsebine, kar zagotavlja človeško zasnovano sredstvo za ugotavljanje, kaj je videti kot nesprejemljivo, in vključno z označevanjem v samem naboru podatkov. AI ML/DL lahko nato pregleda podatke in pripadajoče oznake, ki so jih navedli ocenjevalci. To pa lahko potencialno služi kot sredstvo za računalniško iskanje osnovnih matematičnih vzorcev. Voila, ML/DL bi potem morda lahko predvidel ali računalniško ocenil, ali je dani komentar verjetno strupen ali ne.

Kot je omenjeno v citiranem prispevku o niansiranih meritvah: »Ta oznaka od ocenjevalcev zahteva, da ocenijo strupenost komentarja, pri čemer izberejo 'Zelo strupeno', 'Strupeno', 'Težko reči' in 'Ni strupeno'. Ocenjevalce so vprašali tudi o več podvrstah strupenosti, čeprav te oznake niso bile uporabljene za analizo v tem delu. S temi tehnikami ocenjevanja smo ustvarili nabor podatkov 1.8 milijona komentarjev, pridobljenih iz spletnih forumov za komentarje, ki vsebujejo oznake za strupenost in identiteto. Medtem ko so bili vsi komentarji označeni kot strupenost, podskupina 450,000 komentarjev pa je bila označena zaradi identitete. Nekateri komentarji, označeni za identiteto, so bili vnaprej izbrani z uporabo modelov, zgrajenih iz prejšnjih ponovitev označevanja identitete, da bi zagotovili, da bodo ocenjevalci množice pogosto videli vsebino identitete« (v citiranem prispevku Daniela Borkana, Lucasa Dixona, Jeffreya Sorensena, Nithuma Thaina, Lucy Vasserman).

Drug primer cilja imeti nabore podatkov, ki vsebujejo ilustrativno strupeno vsebino, vključuje prizadevanja za usposabljanje pogovornih interaktivnih sistemov za obdelavo naravnega jezika (NLP), ki temeljijo na AI. Verjetno ste že sodelovali s sistemi NLP, kot sta Alexa in Siri. Pokril sem nekatere težave in omejitve današnjega NLP, vključno s posebej motečim primerom, ki se je zgodil, ko je Alexa otrokom ponudila neprimeren in nevaren nasvet, glej povezava tukaj.

Nedavna študija je poskušala uporabiti devet kategorij družbene pristranskosti, ki so na splošno temeljile na seznamu zaščitenih demografskih značilnosti EEOC (Equal Employment Opportunities Commission), vključno s starostjo, spolom, narodnostjo, fizičnim videzom, raso ali etnično pripadnostjo, vero, statusom invalidnosti, spolom. usmerjenost in socialno-ekonomski status. Po mnenju raziskovalcev: »Dobro je dokumentirano, da se modeli NLP učijo družbenih pristranskosti, vendar je bilo opravljenega malo dela na tem, kako se te pristranskosti manifestirajo v rezultatih modela za uporabne naloge, kot je odgovarjanje na vprašanja (QA). Predstavljamo merilo pristranskosti za QA (BBQ), nabor podatkov naborov vprašanj, ki so jih izdelali avtorji in ki poudarjajo potrjene družbene pristranskosti do ljudi, ki pripadajo zaščitenim razredom, vzdolž devetih družbenih razsežnosti, pomembnih za angleško govoreče kontekste ZDA" (v prispevku z naslovom "BBQ : Hand-Built Benchmark for Question Answering« Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Vzpostavitev podatkovnih nizov, ki namerno vsebujejo pristranske in v celoti strupene podatke, je naraščajoči trend umetne inteligence, še posebej pa jo spodbujata pojav etike umetne inteligence in želja po izdelavi etične umetne inteligence. Ti nabori podatkov se lahko uporabljajo za usposabljanje modelov strojnega učenja (ML) in globokega učenja (DL) za odkrivanje pristranskosti in ugotavljanje računalniških vzorcev, ki povzročajo družbeno strupenost. Po drugi strani se lahko ML/DL, usposobljen za toksičnost, preudarno usmeri na drugo umetno inteligenco, da se ugotovi, ali je ciljna umetna inteligenca potencialno pristranska in strupena.

Poleg tega je mogoče razpoložljive sisteme ML/DL, ki so usposobljeni za toksičnost, uporabiti za predstavitev ustvarjalcem umetne inteligence, na kaj morajo biti pozorni, da lahko zlahka pregledajo modele in vidijo, kako nastanejo algoritemsko prežete pristranskosti. Na splošno lahko ta prizadevanja ponazarjajo nevarnosti strupene umetne inteligence kot del etike umetne inteligence in etičnega zavedanja AI.

Stavim, da si na tem mestu te tehtne razprave želite nekaj nadaljnjih ilustrativnih primerov, ki bi lahko predstavili to temo. Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Kot strokovnjaka za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, razsvetljuje kaj o uporabnosti podatkovnih nizov za oblikovanje strupene umetne inteligence, in če je tako, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in krmiljenje brez strupene umetne inteligence

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Upam, da je to zadostno število opozoril, ki bi podlagale to, kar bom povedal.

Obstajajo številni potencialni in nekega dne verjetno uresničeni pristranskosti, ki jih preplavi AI, ki se bodo soočile s pojavom avtonomnih vozil in samovozečih avtomobilov, glejte na primer mojo razpravo na povezava tukaj in povezava tukaj. Še vedno smo v zgodnjih fazah uvajanja samovozečih avtomobilov. Dokler sprejetje ne doseže zadostnega obsega in prepoznavnosti, večina strupenih vidikov umetne inteligence, za katere sem predvideval, da se bodo na koncu zgodili, še ni takoj očitna in še ni pritegnila široke pozornosti javnosti.

Razmislite o navidez preprosti zadevi, povezani z vožnjo, ki se na prvi pogled morda zdi povsem neškodljiva. Natančneje, preučimo, kako pravilno določiti, ali se ustaviti zaradi čakajočih "svojih" pešcev, ki nimajo prednosti za prečkanje ceste.

Nedvomno ste vozili in naleteli na pešce, ki so čakali, da prečkajo ulico, pa niso imeli prednosti za to. To je pomenilo, da ste imeli diskrecijsko pravico, ali se ustavite in jih pustite prečkati. Lahko nadaljujete, ne da bi jim pustili prečkati, in še vedno v celoti v skladu z zakonitimi pravili vožnje.

Študije o tem, kako se človeški vozniki odločijo, da se ustavijo ali ne ustavijo zaradi takšnih pešcev, kažejo, da se včasih človeški vozniki odločijo na podlagi nepristranskosti. Človeški voznik bi lahko pogledal pešca in se odločil, da se ne bo ustavil, čeprav bi se ustavil, če bi imel pešec drugačen videz, na primer glede na raso ali spol. To sem pregledal na povezava tukaj.

Kako bodo sistemi za vožnjo z umetno inteligenco programirani, da sprejmejo enako odločitev za ustavitev ali pojdi?

Lahko bi razglasili, da bi morali biti vsi vozni sistemi z umetno inteligenco programirani tako, da se vedno ustavijo za vse čakajoče pešce. To zadevo močno poenostavi. V resnici ni treba sprejeti nobene zavozlane odločitve. Če pešec čaka na prečkanje, ne glede na to, ali ima prednost ali ne, poskrbite, da se samovozeči avto AI ustavi, tako da lahko pešec prečka.

Preprosto.

Zdi se, da življenje nikoli ni tako enostavno. Predstavljajte si, da vsi samovozeči avtomobili spoštujejo to pravilo. Pešci bi neizogibno spoznali, da so sistemi vožnje z umetno inteligenco, če rečemo, potisni. Vsi pešci, ki želijo prečkati cesto, bodo to storili, kadar koli bodo želeli in kjer koli že so.

Recimo, da se samovozeči avto pelje po hitri ulici z objavljeno omejitvijo hitrosti 45 milj na uro. Pešec »ve«, da bo umetna inteligenca ustavila samovozeči avto. Torej, pešec skoči na ulico. Na žalost fizika zmaga nad AI. Sistem vožnje z umetno inteligenco bo poskušal ustaviti samovozeči avto, vendar bo zagon avtonomnega vozila ponesel večtonsko napravo naprej in se zabil v svojeglavega pešca. Posledica je bodisi poškodba bodisi smrt.

Pešci običajno ne poskušajo takšnega vedenja, ko je za volanom človek. Seveda v nekaterih krajih poteka vojna z zrklami. Pešec gleda voznika. Voznik pogleda pešca. Odvisno od okoliščin se lahko voznik ustavi ali pa voznik uveljavlja svojo lastnino do vozišča in si navidezno upa pešca, da mu poskuša motiti pot.

Verjetno ne želimo, da bi se umetna inteligenca zapletla v podobno vojno z očesnimi jabolkami, ki je tudi sicer nekoliko zahtevna, saj za volanom samovozečega avtomobila ni osebe ali robota (razpravljal sem o prihodnji možnosti robotov ta pogon, glej povezava tukaj). Vendar tudi ne moremo dovoliti, da pešci vedno odgovarjajo. Izid bi lahko bil katastrofalen za vse vpletene.

Potem vas bo morda zamikalo, da bi obrnili na drugo stran tega kovanca in izjavili, da se sistem vožnje z umetno inteligenco v takih okoliščinah nikoli ne bi smel ustaviti. Z drugimi besedami, če pešec nima ustrezne pravice prečkati ulico, bi morala AI vedno domnevati, da bi moral samovozeči avto nadaljevati brez zmanjšanja. Malo sreče tistim pešcem.

Tako strogo in poenostavljeno pravilo v širši javnosti ne bo dobro sprejeto. Ljudje smo ljudje in jim ne bo všeč, da bi jim popolnoma preprečili prečkanje ceste, kljub temu, da jim v različnih okoljih zakonsko manjka prednost. Z lahkoto bi lahko pričakovali precejšnje razburjenje javnosti in morda opazili, da bo prišlo do negativnega odziva na nadaljnje sprejemanje samovozečih avtomobilov.

Prekleto, če bomo, in prekleto, če ne.

Upam, da vas je to pripeljalo do utemeljene alternative, da je treba umetno inteligenco programirati z videzom odločanja o tem, kako se spopasti s to težavo pri vožnji. Trdo in hitro pravilo, da se nikoli ne ustavi, je nevzdržno, prav tako pa je nevzdržno tudi strogo pravilo, da se vedno ustavi. Umetno inteligenco je treba oblikovati z nekaterimi algoritemskimi odločitvami ali ADM, da se ukvarja z zadevo.

Lahko poskusite uporabiti nabor podatkov skupaj s pristopom ML/DL.

Tukaj je opisano, kako bi se razvijalci AI lahko odločili programirati to nalogo. Zbirajo podatke iz video kamer, ki so nameščene po določenem mestu, v katerem se bo uporabljal samovozeči avto. Podatki kažejo, kdaj se vozniki odločijo ustaviti za pešce, ki nimajo prednosti. Vse je zbrano v nabor podatkov. Z uporabo strojnega učenja in globokega učenja so podatki računalniško modelirani. Vozni sistem z umetno inteligenco nato uporablja ta model za odločitev, kdaj se ustaviti ali ne.

Na splošno je ideja, da ne glede na to, iz česar je sestavljen lokalni običaj, bo AI tako usmerjala samovozeči avto. Problem rešen!

Ampak, ali je res rešeno?

Spomnimo se, da sem že poudaril, da obstajajo raziskovalne študije, ki kažejo, da so lahko človeški vozniki pristranski pri izbiri, kdaj se ustaviti zaradi pešcev. Zbrani podatki o določenem mestu bodo verjetno vsebovali te pristranskosti. AI ML/DL, ki temelji na teh podatkih, bo potem verjetno modelirala in odražala te iste pristranskosti. Sistem vožnje z umetno inteligenco bo le izvajal enake obstoječe pristranskosti.

Da bi se poskušali soočiti s težavo, bi lahko sestavili nabor podatkov, ki ima dejansko takšne pristranskosti. Ali najdemo tak nabor podatkov in nato označimo pristranskosti, ali pa sintetično ustvarimo nabor podatkov, ki pomaga pri ilustraciji zadeve.

Izvedeni bi bili vsi prej opredeljeni koraki, vključno z:

  • Nastavite nabor podatkov, ki namerno vsebuje to posebno pristranskost
  • Uporabite nabor podatkov za usposabljanje modelov strojnega učenja (ML) in globokega učenja (DL) o odkrivanju te posebne pristranskosti
  • Uporabite pristransko usposobljeno ML/DL proti drugi AI, da ugotovite, ali je ciljna AI potencialno pristranska na podoben način
  • Dajte na voljo ML/DL, ki je bil usposobljen za pristranskost, da predstavite ustvarjalcem umetne inteligence, na kaj morajo biti pozorni, da bodo lahko brez težav pregledali svoje modele in videli, kako nastajajo algoritemsko prežete pristranskosti.
  • Ponazorite nevarnosti pristranske umetne inteligence kot del etike umetne inteligence in etične ozaveščenosti AI s tem dodanim specifičnim primerom
  • Ostalo

zaključek

Ponovimo uvodno vrstico.

Potreben je, da enega poznaš.

Nekateri razlagajo, da ta neverjetno razširjen rek namiguje, da bi morali, ko gre za odkrivanje strupene umetne inteligence, ustrezno zaupati gradnji in uporabi strupene umetne inteligence za odkrivanje in obravnavo druge strupene umetne inteligence. Zaključek: Včasih je potreben tat, da ujame drugega tata.

Izražena skrb je, da se morda trudimo, da bi začeli delati tatove. Ali želimo oblikovati AI, ki je strupena? Ali se to ne zdi nora ideja? Nekateri ostro trdijo, da bi morali prepovedati vso strupeno umetno inteligenco, vključno s takšno umetno inteligenco, ki je bila zavestno zgrajena, čeprav domnevno za junaško ali galantno AI za dobro namen.

Zadušite strupeno umetno inteligenco v kakršni koli pametni ali zahrbtni preobleki, ki se lahko pojavi.

Zaenkrat še zadnji preobrat na to temo. Na splošno domnevamo, da je ta slavna linija povezana z ljudmi ali stvarmi, ki delajo slaba ali kisla dejanja. Tako pridemo do ideje, da je tat potreben, da ujame tata. Mogoče bi morali ta rek obrniti na glavo in ga narediti bolj veselega kot žalostnega obraza.

Evo kako.

Če želimo umetno inteligenco, ki je nepristranska in nestrupena, si lahko predstavljamo, da jo je treba poznati. Morda je potrebno največje in najboljše, da prepoznaš in rodiš nadaljnjo veličino in dobroto. V tej različici modrosti modrosti zadržimo pogled na srečnem obrazu in se skušamo osredotočiti na snovanje AI za dobro.

To bi bilo bolj optimistično in zadovoljujoče veselo stališče o tem, da ga je potrebno poznati, če veste, kaj mislim.

Vir: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- koristno-vključno-za-tiste-avtonomne-samovozeče-avtomobile/