Etiko umetne inteligence moti najnovejša umetna inteligenca, ki jo je razvila Kitajska, potrdilo o branju misli z zvestobo stranke, prepoznavanju obraza, ki bi lahko napovedovalo zatiralske avtonomne sisteme

Ste zvesti?

Teoretično bi bilo mogoče preučiti vaša očitna dejanja in ugotoviti, ali vaša dejanja kažejo zvestobo.

Predpostavimo, da so namesto tega poskušali brati vaše misli in medtem skenirati vaš obraz, da bi določili vaš količnik zvestobe. To je srhljivo vsiljivo; bi se lahko brez težav obsodil. Sliši se kot eden tistih norih znanstvenofantastičnih filmov, ki predvidevajo prihodnjo distopično družbo.

K sreči, si potuhnjeno prišepneš, danes nimamo česa takega.

Vau, pridrži svoje konje.

Naslovi novic so nedavno razkrili, da je raziskovalni članek, objavljen na spletu na Kitajskem 1. julija 2022, prikazoval študijo, ki naj bi vključevala oceno možganskih valov in izrazov obraza ljudi za namene izračuna, ali so bili zvesti kitajski komunistični partiji (KPK). . Torej, vidite, prihodnost je vedno bližje, vsaj v smislu doseganja distopične družbe, ki smo se je bali, da bi se lahko nekoč pojavila.

Raziskovalni članek je hitro izginil s spletne objavljene povezave.

Verjetno je bilo hitro zaničevanje, ki je hitro zajelo internet, dovolj, da so časopis umaknili. Ali pa raziskovalci morda le želijo narediti nekaj sprememb besedila in drugih neškodljivih popravkov, da bi ponovno objavili, ko bodo imeli temeljitejšo priložnost zagotoviti, da so i-ji prečrtani in t-ji prečrtani. Morali bomo imeti odprte oči, da vidimo, ali bo papir dobil drugo življenje.

Šel bom naprej in se poglobljeno poglobil v to, kar vemo o raziskovalni študiji, in poskušal povezati pike o tem, kako je tovrstno delo, povezano z umetno inteligenco, pomembno za vse nas, kar bo daleč preseglo obseg videnja tega kot omejeno na eno določeno državo. Moje poročanje bo nekoliko obsežnejše od drugih nedavnih poročil o tej novici vredni temi, zato me prosim potrpite.

Dodaten poudarek bom tudi na tem, da obstaja množica pomembnih lekcij etike umetne inteligence, ki jih lahko izberemo iz domnevnega dokumenta. Za moje stalno in obsežno pokrivanje etičnosti umetne inteligence in etične umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Tukaj je tisto, kar je bilo doslej omenjeno o raziskovalni študiji.

Očitno je bilo nekaj »prostovoljcev« rekrutiranih za sodelovanje v eksperimentu glede dojemanja KPK. Ni znano, ali so bili voljni prostovoljci ali bolj podobni nagnanim ali morda vodenim prostovoljcem. Zaradi razprave bomo domnevali, da so se strinjali s tem, da so subjekt v študiji.

To sem omenil, da ne bi bil samo žaljiv. Kadarkoli se izvaja poskus, ki vključuje ljudi, obstaja množica splošno sprejetih praks glede zaposlovanja in potopitve takšnih subjektov v raziskovalno delo. To delno izvira iz predhodnih študij, ki so ljudi pogosto pretentale ali prisilile k sodelovanju v eksperimentu, kar je včasih povzročilo neugodne psihološke posledice ali celo fizične poškodbe teh udeležencev. Znanstvena skupnost si je močno prizadevala omejiti te vrste zahrbtnih študij in zahteva, da se zagotovijo vse vrste razkritij in opozoril tistim, ki jih želijo vključiti v študije, povezane s človekom.

Da pojasnimo, vsi se ne držijo tako preudarnih in vestnih smernic.

Če gremo naprej, je bilo domnevno 43 subjektov, ki naj bi bili člani kitajske komunistične partije. Upoštevajte, da je izbira subjektov za poskus zelo pomembna za poskus in jo je treba upoštevati tudi glede kakršnih koli sklepov, do katerih boste morda poskušali priti pozneje o rezultatih poskusa.

Recimo, da želim narediti eksperiment o tem, kako ljudje dojemajo priznano serijo Vojna zvezd. Če vnaprej izberem subjekte, ki vsi odmevno sovražijo Vojno zvezd (kako lahko takšni ljudje obstajajo?), in jim pokažem videoposnetke Vojne zvezd, je velika verjetnost, da bodo verjetno rekli, da še vedno ne marajo Vojne zvezd. Na podlagi tega psevdo-znanstvenega eksperimenta morda zahrbtno trdim, da ljudje - na splošno - resnično sovražijo Vojno zvezd, kar je bilo "dokazano" (mežik-mežik) v mojem "skrbno" pripravljenem raziskovalnem okolju.

Morda ne veste, da sem tako rekoč priredil ruleto tako, da sem vnaprej izbral predmete, za katere sem pričakoval, da bodo prinesli moje prikrito želene rezultate. Seveda, če bi namesto tega namenoma zaposlil ljudi, ki so oboževali Vojno zvezd in bili goreči navdušeni oboževalci, obstaja velika verjetnost, da bi poročali, da so navdušeni nad gledanjem teh posnetkov Vojne zvezd. Spet bi morebitne zaključke o tem, kako se ljudje na splošno odzivajo na Vojno zvezd, ublažil vnaprej izbran nabor predmetov, izbranih za trud.

Študija, osredotočena na KPK, je navidezno imela subjekte, ki so sedeli pred kiosku podobnim video zaslonom in brali različne članke o politikah in dosežkih KPK. To je verjetno obravnavano "eksperimentalno zdravljenje", ki so mu subjekti izpostavljeni. Ko načrtujete poskus, običajno pridete do eksperimentalnega dejavnika ali vidika, za katerega želite preveriti, ali vpliva na udeležence.

Raziskovalno vprašanje, ki so ga očitno preučevali, je bilo, ali bi dejanje pregleda teh materialov imelo kakršen koli vpliv na subjekte v smislu povečanja, zmanjšanja ali nevtralnosti glede njihovih kasnejših vtisov o KPK.

V klasični ničelni hipotezi lahko organizirate takšno študijo, da navedete, da porabljeni materiali nimajo vpliva na poznejše vtise, ki jih izrazijo subjekti. Ko opravite primerjavo njihovih stališč o CCP pred in potem, bi statistično poskušali ugotoviti, ali je prišlo do statistično pomembnega odkrivanja spremembe v njihovih vtisih.

Lahko se zgodi, da se prej in potem statistično ne razlikujeta, zato bi lahko razumno okvirno sklepali, da za to posebno študijo prikazani materiali (eksperimentalna obdelava) niso vplivali na svoje vtise. Po drugi strani pa bi, če bi obstajala statistično veljavna razlika, pogledali, ali je bil po tem večji od prejšnjega, kar bi vam omogočilo, da previdno namigujete, da so materiali povečali njihove vtise (in, na drugi strani kovanca, če pozneje je bilo manj kot prej, kar bi lahko pomenilo, da so materiali zmanjšali ali zmanjšali svoj vtis).

V takšni študiji bi bilo treba obravnavati veliko nadležnih nerešenih koncev.

Na primer, običajno želimo imeti tako imenovano kontrolno skupino, ki jo lahko primerjamo s tistimi, ki prejemajo eksperimentalno zdravljenje. Evo zakaj. Predpostavimo, da je bilo dejanje sedenja pred kioskom in branja gradiva prava osnova za spremembo vtisov. Lahko se zgodi, da je narava porabljenih materialov približno nepomembna za učinek vtisa. Zgolj sedenje in branje česar koli, na primer najnovejših zgodb o mačkah, ki počnejo smešne stvari, bi lahko pomagalo. Zato se lahko dogovorimo, da so nekateri subjekti v naši kontrolni skupini, ki je izpostavljena drugemu gradivu za branje, razen politik CCP in gradiva o dosežkih.

Ne vemo, ali je bilo to storjeno v tem primeru (zdi se, da še nihče ni omenil tega vidika).

Zavedam se, da že postajate razburjeni glede medijsko eksplozivnega dela študije. Hitro se bomo premaknili v ta del.

Kako lahko odkrijemo, ali so se subjekti v tem poskusu odzvali ali spremenili svoje vtise kot rezultat branja prikazanih materialov?

Običajno bi bilo, da bi jih vprašali.

Morda bi predhodno izpolnili vprašalnik, v katerem bi jih vprašali o njihovih vtisih o KPK. Potem, po izpostavljenosti eksperimentalnemu zdravljenju, kot pri branju prikazanih materialov, bi lahko dali še en vprašalnik. Odgovore, ki so jih subjekti dali prej in potem, bi lahko nato primerjali. Če bi uporabljali tudi kontrolno skupino, bi domnevali, da se odgovori kontrolne skupine ne bi bistveno spremenili od prej do pozneje (v prepričanju, da gledanje zgodb o norčavih mačkah ne bi smelo vplivati ​​na njihove vtise CCP).

To dejanje spraševanja subjektov po njihovih vtisih ni nujno tako preprosto, kot se morda zdi.

Predpostavimo, da subjekti v poskusu dobijo občutek ali splošni odmik, da želite, da se na eksperimentalno zdravljenje odzovejo na določen način. V tem primeru bi lahko namenoma precenjevali svoje reakcije v delu po poskusnem dajanju. Zagotovo ste že videli, kako se je to zgodilo. Če opravljam preizkus okusa za novo gazirano sodo, ki prihaja na trg, se bom morda obnašal, kot da sem divje užival v sodu, in to v upanju, da bom morda prikazan v oglasu proizvajalca soda in bom dobil svojih zasluženih petnajst minut slave .

Bistvo je, da zgolj spraševanje ljudi o njihovem mnenju ni zanesljiv način za merjenje sprememb. To je en pristop. Drugi pristopi bi se lahko in tudi pogosto uporabljajo.

Kako se je ta posebna študija odločila oceniti reakcije preiskovancev?

Očitno sta bili uporabljeni vsaj dve metodi. Ena metoda je vključevala skeniranje obraza in uporabo programske opreme za prepoznavanje obrazov, ki temelji na umetni inteligenci, za ocenjevanje reakcij preiskovancev. Druga metoda naj bi bila neka oblika skeniranja možganskih valov. Zaenkrat še ni znano, kakšne vrste naprav za skeniranje možganskih valov so bile uporabljene, niti kakšna programska oprema za analizo možganskih valov, ki temelji na AI, je bila uporabljena.

Različna poročila so pokazala, da je študija o naravi eksperimenta navedla tole: "Po eni strani lahko oceni, kako so člani stranke sprejeli miselno in politično izobraževanje." In študija je menda tudi to omenila: "Po drugi strani pa bo zagotovila prave podatke za miselno in politično izobraževanje, tako da jo bo mogoče izboljšati in obogatiti." Raziskovalna študija je bila izvedena pod okriljem kitajskega Hefei Comprehensive National Science Centre.

Medijska poročila kažejo, da je študija aludirala na trditev, da so skeniranja obraza in možganskih valov lahko pomagala pri odkrivanju, da so bili naknadni vtisi o CCP povečani.

Za vas želim poudariti, da brez neposrednega pregleda uporabljenih sistemov in natančnega pregleda raziskovalnega dokumenta ne vemo podrobnosti o tem, kako so bili ti sistemi, ki temeljijo na AI, natančno uporabljeni.

Lahko se zgodi, da so se subjekti odzvali na eksperimentalno okolje, namesto da bi se odzvali na eksperimentalno zdravljenje. Vsakdo, ki sodeluje v študiji, je lahko za začetek zaskrbljen. To bi lahko zmešalo vsa prizadevanja za skeniranje možganskih valov ali analizo obraznih vzorcev. Obstaja tudi možnost, da so se počutili motivirane, da bi ugajali raziskovalcem, saj so se odločili, da bodo po ogledu gradiva ustvarili pozitivne misli, kar bi se teoretično lahko odrazilo v slikanju možganskih valov in slikanju obraza (morda, vendar vedite, da obstaja odlična vneto polemiko o veljavnosti takšnih trditev, kot bom takoj pojasnil), v upanju, da bom izkrivil rezultate in pokazal, da so imeli pozitiven vpliv.

Reakcija na Twitterju je močno obsojala, da je že sama pojem uporabe skeniranja možganskih valov in prepoznavanja obraza, ki ga podpira AI, grozljivo in nezaslišano dejanje. Samo človeške pošasti bi uporabljale takšne naprave, nam sporočajo nekateri od teh tvitov.

Prositi vas moram, da se usedete in pripravite na nekaj, kar bi lahko bilo nesramno in šokantno presenečenje.

Po vsem svetu je veliko raziskovalcev, ki v svojih raziskovalnih študijah uporabljajo iste vrste tehnologij. To zagotovo ni prvič, da je bila zmožnost skeniranja možganskih valov uporabljena na ljudeh v raziskovalnih prizadevanjih. To zagotovo ni bilo prvič, da je bilo prepoznavanje obraza uporabljeno na ljudeh v eksperimentalne namene. Tudi bežno spletno iskanje vam bo pokazalo veliko in veliko eksperimentalnih študij v vseh možnih državah in laboratorijih, ki so uporabljali te vrste naprav.

Kot rečeno, njihova uporaba za merjenje lojalnosti do KPK ni nekaj, na kar bi se preveč osredotočali. Ko se taka umetna inteligenca uporablja za vladni nadzor, je bila prekoračena rdeča črta, kot pravijo.

To je očitno srhljiv del celotnega kompleta in caboodla.

Mnogi so izrazili zaskrbljenost, da se bomo, če se bodo vlade odločile za uporabo tehnologije skeniranja možganskih valov in prepoznavanja obrazov za ugotavljanje zvestobe režimom, znašli v distopičnem svetu prizadetosti. Ko se sprehajate po javni ulici, se lahko zgodi, da bo naprava, nameščena na svetilki, tajno določila vaš količnik zvestobe.

Predvidevamo, da če vaš obraz ne kaže, da ste dovolj zvesti, ali če skeniranje možganskih valov kaže isto, lahko vladni razbojniki nenadoma prihitijo in vas zgrabijo. Razburljivo. Brezno. Ne sme biti dovoljeno.

To je bistvo, zakaj se je ta novica pojavila v naslovu, ki je bruhal ogorčenje in ogorčenje.

Predstavljajte si to. Verjetno bomo izdelali in nato dali v uporabo računalniško podprte sisteme, ki uporabljajo najnovejšo AI, da se odločijo, ali smo zvesti ali ne. Če bi poskušali najeti ljudi, ki bi sedeli in delali isto, bi potrebovali veliko ljudi in imeli bi logistično težavo, ko bi jih poskušali postaviti tako, da bodo vsi opazovali. V primeru sistema, ki temelji na umetni inteligenci, je vse, kar morate storiti, nastavitev elektronskih naprav na svetilke, stranice stavb itd. Skeniranje zvestobe se lahko izvaja 24×7, ves čas, na vseh mestih, ki so tako opremljena. To je nato mogoče vnesti v ogromno bazo podatkov.

Postanemo ljudje, ki smo le zobniki v ogromnem, vsevidečem in vsegledajočem družbenem zatiralskem ekosistemu. Vidno oko ne opazuje le tega, kar počnemo. Prav tako tolmači, kaj trdijo naši obrazi o naši lojalnosti vladi. Tudi naš um je treba pregledati zaradi podobnega strašnega vzroka.

Všeč mi je!

Iz tega izhaja tudi sekundarni pomislek, čeprav morda ne tako trn v primerjavi s posledicami Big Brotherja, kot je bilo že omenjeno.

Razmislite o teh dveh perečih vprašanjih:

  • Ali lahko zanesljivo trdimo, da lahko pregled možganskih valov potrdi vašo zvestobo?
  • Ali lahko zanesljivo trdimo, da skeniranje obraza lahko potrdi vašo zvestobo?

Počakaj, morda kričiš na vso moč.

Zavedam se in priznavam, da vas vidiki zanesljivosti sami po sebi morda ne zanimajo toliko. Ali je to mogoče storiti zanesljivo, je manj pomembno kot dejstvo, da se to sploh izvaja. Nihče ne bi smel biti pod takim drobnogledom. Pozabite na to, ali tehnologija deluje primerno za to nalogo. Naloge se ne bi smeli lotiti na začetku.

V vsakem primeru je odgovor trenutno odločen ne, in sicer da obstoječi sistemi umetne inteligence, ki opravljajo kakršno koli podobo »skeniranja možganskih valov« in prepoznavanja obraza, niso dovolj sposobni za ta preskok.

Morda ste v zadnjem času opazili, da so se nekateri izdelovalci sistemov za prepoznavanje obrazov vrnili nazaj v smislu, kako se njihovi sistemi za prepoznavanje obrazov uporabljajo. V prihajajoči objavi v kolumni bom razpravljal o nedavnih prizadevanjih na primer Microsofta, da bi poskušal zajeziti val tistih, ki uporabljajo orodja za prepoznavanje obraza, ki jih ponuja Microsoft, za namene, ki daleč presegajo tisto, za kar tehnologija zmore ali bi se morala uporabljati . Morda se vam bo zdel zanimiv moj prejšnji pogled na pomisleke glede etike umetne inteligence, ki so bili že dobro objavljeni glede prepoznavanja obrazov, glejte povezava tukaj. Razpravljal sem tudi o areni skeniranja možganskih valov, glejte mojo razpravo na povezava tukaj.

Na kratko, še ni zanesljivih ali razumnih načinov, ki bi kazali, da lahko skeniranje možganskih valov ali skeniranje prepoznavanja obraza prikazuje zvestobo nekoga. Celo domnevno osnovni vidiki, kot je, ali lahko zanesljivo povežete ta skeniranja s tem, ali je nekdo srečen ali žalosten, še vedno potekajo vroče razprave. Poskušati povišati predračun nečemu tako amorfnemu in spremenljivemu, kot je zvestoba, je most predaleč.

Dodal bi lahko, da nekateri goreče verjamejo, da bomo na koncu prišli tja. Zato sem skrbno poskušal opozoriti, da še nismo tam, namesto da trdim, da tja ne bomo nikoli prišli. Nikoli ni velika beseda. Morate biti popolnoma prepričani, če se boste premetavali, da bo to nikoli biti izvedljiv (ob upoštevanju, da "nikoli" zajema desetletja od zdaj, stoletja od zdaj in tisoče ali milijone let od zdaj).

Nekateri so se odzvali na novico o tej kitajski laboratorijski raziskovalni študiji kot na pokazatelj, kako nevarno se svet obrača k neprimerni in nevarni uporabi umetne inteligence. Za trenutek bom z vami delil vpogled v to, kaj je etika umetne inteligence. To vam bo pomagalo nazorneje videti, zakaj se zdi, da ta posebna študija krši številne, če ne skoraj vse, splošno sprejete predpise etične umetne inteligence.

Verjeli ali ne, nekateri so namigovali, da morda v zvezi s to študijo iz krtine delamo goro.

Ali smo?

Protiargument je, da lahko krtina kmalu postane gora. V pregovorni ideji o snežni kepi, ki postaja vse večja in večja, ko se kotali po zasneženem hribu navzdol, moramo preprečiti, da bi snežna kepa začela delovati. Če toleriramo tovrstne študije, pustimo tej snežni kepi, da začne svojo pot. Če spregovorimo in razglasimo takšne študije, morda lahko preprečimo snežno kepo.

Nekaj ​​je gotovo, ko gre za vidike umetne inteligence, smo na robu odpiranja Pandorine skrinjice in ostaja vprašanje, ali lahko preprečimo odpiranje skrinjice ali vsaj najdemo način za preudarno ravnanje z vsem, kar se pojavi ko bo škatla sprostila svojo hudičevo vsebino.

Če nič drugega, upajmo, da bodo te vrste medijske nevihte spodbudile široko razpravo o tem, kako bomo preprečili zlo, povezano z umetno inteligenco, in preprečili številna eksistencialna tveganja, ki jih povzroča umetna inteligenca. Dvigniti moramo našo družbeno ozaveščenost o etiki umetne inteligence in etičnih vidikih umetne inteligence.

Preden se lotimo še nekaj mesa in krompirja o divjih in volnatih vidikih, ki so podlaga za tovrstne sisteme umetne inteligence, določimo nekaj dodatnih osnov o zelo bistvenih temah. Na kratko se moramo potopiti v etiko umetne inteligence in zlasti pojav strojnega učenja (ML) in globokega učenja (DL).

Morda se nejasno zavedate, da je eden najglasnejših glasov teh dni na področju umetne inteligence in celo zunaj področja umetne inteligence zahtevanje večjega videza etične umetne inteligence. Oglejmo si, kaj pomeni sklicevanje na etiko umetne inteligence in etično umetno inteligenco. Poleg tega bomo raziskali, kaj mislim, ko govorim o strojnem učenju in poglobljenem učenju.

En poseben segment ali del etike umetne inteligence, ki je bil deležen velike medijske pozornosti, je umetna inteligenca, ki kaže nenaklonjene pristranskosti in neenakosti. Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Čez trenutek bom z vami delil nekaj splošnih načel, na katerih temelji etika umetne inteligence. Tu in tam je veliko tovrstnih seznamov. Lahko bi rekli, da še ni enotnega seznama univerzalne privlačnosti in soglasja. To je žalostna novica. Dobra novica je, da so vsaj na voljo seznami etike AI in so ponavadi precej podobni. Vse skupaj nakazuje, da z nekakšno obliko utemeljene konvergence iščemo pot do splošne skupnosti tega, iz česar je sestavljena etika umetne inteligence.

Najprej na kratko pokrijmo nekaj splošnih etičnih predpisov umetne inteligence, da ponazorimo, kaj bi moralo biti ključnega pomena za vsakogar, ki ustvarja, uporablja ali uporablja AI.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da so "samo koderji" ali tisti, ki programirajo umetno inteligenco, podvrženi spoštovanju konceptov etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

Prepričajmo se tudi, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli super inteligentno AI, je možno, da bi bila taka AI na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne AI kot možnosti glej pokritost tukaj).

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vrnimo se k naši osredotočenosti na sisteme umetne inteligence, ki se uporabljajo za neustrezne ali morebitne namene očitnih kršitev, in kako je to povezano z nedavno objavljeno študijo o zvestobi CCP.

Na misel prideta dva glavna pomisleka:

1) Ta primer umetne inteligence je del širšega stalnega vzorca zaskrbljujoče uporabe umetne inteligence in je zato zlovešč in odpira oči glede tega, kaj se dogaja

2) Mačko bi lahko izpustili iz vreče, tako da če je AI, kot je ta, sprejeta v eni državi, se lahko takoj razširi tudi v druge države

Začnite s prvo točko o tem, da je ta primer AI del stalnega vzorca.

Ena zelo pomembna podlaga za to, da vas ta posebna študija še posebej vznemirja, je, da je del širšega vzorca, kako naj bi jo nekateri uporabljali AI. Če bi bila to edina takšna študija, ki je bila kdajkoli izvedena, bi nas to morda nekoliko vznemirilo. Kljub temu verjetno ne bi odmevalo s tako vnemo, kot jo vidimo zdaj.

To je morda kapljanje-kapljanje koraka proti nečemu, kar bo ušlo izpod nadzora.

Kot so poročali v novicah, je Kitajska dobro znana po vztrajanju pri neverjetni lojalnosti do KPK. Poleg tega so bila vzpostavljena ali se vzpostavljajo različna sredstva za zagotovitev, da so ljudje indoktrinirani v vladno doktrino. Navedeni so bili primeri predhodnih študij, ki so skušale razviti algoritme umetne inteligence, ki bi lahko ocenili miselne pogoje članov stranke (glej Kitajsko podprto Študijski časi leta 2019, ki omenja ta prizadevanja).

Morda se spomnite, da je imel leta 2018 podpredsednik Mike Pence govor na Hudsonovem inštitutu in poudaril, da si »kitajski vladarji prizadevajo uvesti orwellovski sistem, ki temelji na nadzoru tako rekoč vseh vidikov človeškega življenja« (to je bilo sklicevanje na izvajanje KPK sistem družbenega kreditnega točkovanja, tema vidnih polemik). Z lahkoto bi lahko trdili, da je ta nedavna študija CCP še en korak v tej smeri.

Ne vemo, kdaj in če bo zadnja slama čez rob zlomila hrbet, tako da se te enkratne študije spremenijo v razširjene sisteme spremljanja, ki temeljijo na AI.

Druga točka, ki je vredna pozornosti, je, da ne moremo domnevati, da bo ta vrsta umetne inteligence omejena samo na Kitajsko. V bistvu, čeprav je tovrstna uporaba umetne inteligence na Kitajskem, ki bi lahko postala zelo razširjena, sama po sebi moteča, bi lahko druge države storile enako.

Ko naj bi bila umetna inteligenca za to pripravljena za najboljši čas, verjetno ne bo trajalo veliko, da se bodo druge države odločile, da jo želijo uvesti. Mačka bo iz vreče. Nekatere države bodo domnevno uporabljale to umetno inteligenco na popolnoma zatiralske načine in se ne bodo poskušale pretvarjati glede tega. Druge države bi lahko na videz poskušale uporabiti to vrsto umetne inteligence za navidezno koristne namene, kar ima na koncu tudi slabost, ki bo skoraj neizogibna.

Pravzaprav je domneva, da bo ta vrsta umetne inteligence morda sprejeta šele, ko se bo videlo, da je pripravljena za najboljši čas, nekoliko napačna. Morda ni prav nič pomembno, ali lahko AI zanesljivo deluje na ta način. AI se lahko uporablja kot naslovnica, glejte mojo razlago na povezava tukaj. Ne glede na to, kaj je umetna inteligenca dejansko sposobna doseči, se domneva, da je lahko umetna inteligenca priročna pretveza za uvedbo spremljanja prebivalstva in shem za merjenje in zagotavljanje popolne zvestobe oblastem.

Stavim, da si na tem mestu te pomembne razprave želite nekaj ilustrativnih primerov, ki bi lahko predstavili to temo. Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Vidite, kot strokovnjak za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, kaj razjasni glede zlorab umetne inteligence, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in zloraba umetne inteligence

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Upam, da je to zadostno število opozoril, ki bi podlagale to, kar bom povedal.

Skiciramo scenarij samovozečega avtomobila, ki bi lahko izkoristil AI na nedorečen ali nepravilen način.

Z vami bom delil nekaj posledic samovozečih avtomobilov, ki temeljijo na umetni inteligenci, zaradi katerih se lahko zgražate in vas motijo. To so vidiki, o katerih trenutno skoraj nihče ne razpravlja. Večkrat sem opozoril na to zadevo, čeprav odkrito priznavam, da dokler ne bomo prevladovali samovozečih avtomobilov, ne bomo imeli veliko pozornosti glede družbe, ki je zaskrbljena ali razburjena zaradi tega, kar se danes zdi zgolj abstraktna predstava .

Ste pripravljeni?

Začeli bomo s postavitvijo temeljev.

Samovozeči avtomobili na osnovi umetne inteligence bodo opremljeni z video kamerami, kar je smiselno. To omogoča samovozečemu avtomobilu, da prejme videoposnetek prizora vožnje. Vozni sistem AI, ki deluje na krovu računalnikov v samovozečem avtomobilu, pa je namenjen računalniškemu pregledu zbranega videa in ugotavljanju, kje je cesta, kje so bližnji avtomobili, kje so pešci itd. Zavedam se, da recitiram 101 osnovo samovozečih avtomobilov.

Video kamere so nameščene na zunanjosti avtonomnega vozila in so obrnjene navzven. Poleg tega lahko na splošno pričakujete, da bodo na ali znotraj vozila video kamere, usmerjene v notranjost samovozečega avtomobila. Zakaj tako? Enostavno, saj bo veliko pomembnih uporab za video posnetke dogajanja v avtonomnem vozilu.

Ko se odpravite na vožnjo s samovozečim avtomobilom, vam ni več treba biti voznik. Kaj boste takrat počeli v samovozečem avtomobilu?

Ena stvar, ki bi jo lahko naredili, bi bila interakcija z drugimi doma ali v pisarni. Tukaj ste, na poti v službo, kar pomeni, da si vzemite eno uro vožnje s samovozečim avtomobilom, in že lahko začnete svoj delovni dan z izvajanjem spletne interaktivne seje v realnem času, podobne Zoomu. Lahko vas vidijo zaradi kamer, usmerjenih navznoter v samovozeči avto. Vidite jih lahko morda na LED zaslonu v samovozečem avtomobilu. Ob koncu dneva, ko se vračate domov, lahko naredite podobno interaktivno video razpravo s svojimi otroki, ko začenjajo delati domače naloge za večer.

Druga uporaba bi bila za pouk. Zdaj, ko vam ni treba izgubljati časa z vožnjo, lahko ta mrtvi čas v samovozečem avtomobilu spremenite v izboljšanje svojih sposobnosti ali pridobitev certifikata ali diplome. Prek kamer, usmerjenih navznoter, vas lahko vaš inštruktor vidi in razpravlja o tem, kako napreduje vaše usposabljanje.

Še ena uporaba bi bila poskusiti zagotoviti, da vozniki v samovozečih avtomobilih ne ponorijo. V avtomobilu, ki ga vozi človek, je voznik odrasla oseba, ki voznikom običajno preprečuje, da bi počeli nenavadne stvari, kot je označevanje notranjosti z grafiti. Kaj se bo zgodilo s samovozečimi avtomobili na osnovi umetne inteligence? Nekatere skrbi, da se bodo vozniki odločili raztrgati notranjost vozil. Da bi to poskušali preprečiti, bo podjetje za souporabo prevozov, ki uvaja samovozeče avtomobile, verjetno uporabilo navznoter obrnjene video kamere za spremljanje, kaj ljudje počnejo v avtonomnem vozilu.

Predvidevam, da ste prepričani, da bomo imeli video kamere, ki bodo usmerjene v notranjost samovozečih avtomobilov, poleg kamer, ki bodo usmerjene navzven za razločevanje prizora vožnje.

Zdaj ste pripravljeni na to, kar sem imenoval "potujoče oko", glejte mojo analizo na povezava tukaj.

Najprej razmislite o video kamerah, ki so obrnjene navzven.

Kamor koli gre samovozeči avtomobil, bo potencialno lahko posnel vse, kar vidijo kamere. Samovozeči avto, ki nekoga odpelje od doma in ga odpelje do trgovine z živili, bo prečkal sosesko in videoposnetek ne bo posnel le cestišča, ampak tudi vse ostalo, kar se dogaja v vidnem polju. Oče in sin se igrata na svojem dvorišču. Družina, ki sedi na svoji verandi. Kar naprej gre.

Trenutno imamo na javnih cestah tako malo samovozečih avtomobilov, da je ta zmožnost zajemanja videa dnevnih dejavnosti razmeroma redka in nepomembna.

Zamislite si, da bomo na koncu dosegli varne in široko razširjene samovozeče avtomobile. Na tisoče jih je. Mogoče milijone. Danes imamo v ZDA približno 250 milijonov avtomobilov, ki jih vozi človek. Sčasoma jih bodo v veliki meri nadomestili samovozeči avtomobili ali pa jih preprosto ne bodo več uporabljali, na naših cestah pa bomo imeli pretežno samovozeče avtomobile. Te samovozeče avtomobile poganja umetna inteligenca in kot taki lahko gostujejo v bistvu 24×7. Brez odmorov za počitek, brez odmorov za kopalnico.

Video podatke je mogoče naložiti iz teh samovozečih avtomobilov prek elektronskih omrežnih povezav OTA (Over-The-Air). Samovozeči avtomobili bodo uporabljali OTA za prenos najnovejših posodobitev programske opreme AI v vozilo. Poleg tega se OTA lahko uporablja za nalaganje podatkov iz samovozečega avtomobila v bazo podatkov v oblaku.

Vse skupaj bi bilo izvedljivo sestaviti te naložene podatke. S šivanjem bi lahko potencialno sestavili dnevne prihode in odhode kogar koli, ki je kateri koli dan stopil ven v kateri koli kraj, ki je v veliki meri uporabljal samovozeče avtomobile.

To je bežno oko, na katerega sem opozarjal.

Zdaj lahko študijo CCP povežemo s to vrsto zmogljivosti. Recimo, da ima vlada dostop do vseh teh zbranih video podatkov. Nato bi lahko uporabili algoritem za prepoznavanje obraza, ki temelji na umetni inteligenci, da bi ugotovili, kam ste šli, ob kateri uri dneva, med vsakodnevnimi življenjskimi potovanji. Poleg tega bi verjetno lahko uporabili svoj analizator, ki temelji na AI, da bi ugotovili, ali se zdi, da imate na obrazu zvest videz ali ne.

Samo predstavljajte si, da ste se v torek popoldne odpravili po sendvič v lokalno restavracijo. Po cestišču so se vozili samovozeči avtomobili. Vsi številni videoposnetki so vas ujeli med petminutnim sprehodom, da bi nekaj pojedli. Podatki so bili naloženi v centralizirano bazo podatkov. Vlada je na podlagi podatkov izvedla svoj program za prepoznavanje obrazov z umetno inteligenco.

Izkazalo se je, da je AI "ugotovil", da ste imeli nelojalen videz na obrazu.

Morda se je ta nelojalen pogled zgodil le za trenutek. Na uličnem vogalu ste čakali, da se je luč spremenila, da ste lahko prečkali ulico do restavracije. V tistem trenutku vas je rahlo zagrabil gnus, da ste morali predolgo čakati na simbol Walk. Je bil to morda znak vaše nelojalnosti vladi?

Da, umetna inteligenca je računalniško izračunala, da ste bili v tistem trenutku izjemno nelojalni. Ko prideš tisto noč domov, je vlada poskrbela za tvojo aretacijo.

Toda počakaj, obstaja še več.

Ne pozabite, da so tudi video kamere usmerjene navznoter.

Istega torka, ko ste se v službo vozili v samovozečem avtomobilu, so video kamere ujele vsak vaš trenutek. To je bilo naloženo v centralizirano bazo podatkov. Programska oprema z umetno inteligenco, ki analizira obrazne vzorce za nelojalnost, je računalniško pregledala vaše obrazne izraze med potjo v pisarno.

V nekem trenutku ste mimogrede pogledali izven avtonomnega vozila in opazili gradbenega delavca, ki je delno blokiral cestišče in povzročil, da je vozni sistem AI upočasnil samovozeči avto. Za delček sekunde se je na vašem obrazu pojavil posmeh nad tem gradbenim delavcem, ki upočasnjuje promet.

Analiza obraznih vzorcev z umetno inteligenco je to razlagala kot znak nelojalnosti vladi.

Dva napada proti tebi v enem dnevu.

Živite na tankem ledu.

Seveda je v tem kontekstu skoraj nepomembno, ali ima AI »prav« ali »narobe« glede tega, da lahko določi vašo zvestobo. Bistvo je, da je bila umetna inteligenca vzpostavljena za ta namen. Ljudem, ki uvajajo AI, je lahko ali pa tudi vseeno, ali je AI primeren za to vrsto nalog. AI omogoča vladni nadzor, ne glede na samo tehnološko veljavnost.

To zajema skeniranje obraza.

Če bomo sčasoma imeli kakršne koli prenosne in cenovno ugodne naprave za (domnevno) skeniranje možganskih valov, bo to zagotovo lahko vključeno tudi v samovozeče avtomobile. Video kamere so zdaj zanesljiva stvar. Možnosti, da bi imeli naprave za skeniranje možganskih valov tega kalibra trenutno še ni v načrtu, vendar je očitno nekaj, kar se predvideva za prihodnost.

Za moje raziskovanje o tem, kako bi lahko vlada poskušala prevzeti prebivalstvo tako, da bi prevzela nadzor nad samovozečimi avtomobili, glejte povezava tukaj. Obstaja podobna možnost, da bi zlonamerni akter poskusil storiti enako, glej povezava tukaj. To ni mišljeno kot taktika prestraševanja glede poročanja o teh sorodnih temah, ampak namesto tega opozarja na pomen kibernetske varnosti in drugih previdnostnih ukrepov, ki si jih moramo kot družba prizadevati sprejeti v zvezi s pojavom vseprisotnih samovozečih avtomobilov in druga avtonomna vozila.

zaključek

Rad bi na hitro zajel še en dodatni vidik o AI, ki se uporablja za ugotavljanje zvestobe, za katerega menim, da je nekoliko ločena tema, vendar o tem razpravljajo nekateri tviti in družbeni mediji.

Prej sem omenil, da nimamo čuteče umetne inteligence in ne vemo, ali in kdaj jo bomo. Zavedajmo se ideje, da bomo imeli čutečo umetno inteligenco. V tem primeru upoštevajte naslednji scenarij.

Prek nečuteče umetne inteligence se odločimo za široko uporabo umetne inteligence, ki računalniško ugotavlja, ali so ljudje lojalni svoji vladi, z uporabo skeniranja obraza, skeniranja možganskih valov itd. To v celoti vodijo in uporabljajo oblastni ljudje. To je zaskrbljujoč scenarij, ki sem ga opisal le nekaj trenutkov prej.

Čas je, da dvignete predračun.

AI postane čuteč. Tej čuteči umetni inteligenci smo zdaj potencialno predali razširjeno zmožnost domnevnega prepoznavanja zvestobe in nezvestobe pri ljudeh. Zlobna umetna inteligenca, ki razmišlja o izbrisatvi ljudi, bi lahko uporabila to zmožnost, da bi se odločila, da bodo ljudje res nelojalni in jih je treba popolnoma uničiti. Ali pa je treba posebej zavreči samo tiste ljudi, ki na obrazu ali mislih pokažejo nelojalnost.

Drugi vidik je, da želi AI zasužnjiti ljudi, glejte mojo razpravo na povezava tukaj.

Zdi se, da smo AI dali popolno darilo za izvedbo te naloge. Obstoječa infrastruktura, ki smo jo vzpostavili, omogoča AI, da skrbno opazuje nas ljudi. Tisti, za katere se zdi, da so izrazili nelojalen znak na obrazu ali razmišljali o gospodarju(-ih) AI, bodo občutili jezo AI.

Zavedam se, da sem rekel, da je to povišanje cen. Nisem prepričan, da je tako. Zdi se mi, da ne glede na to, ali imamo AI vladarje, ki neposredno odločajo o naši usodi v primerjavi s človeškimi vladarji, ki morda uporabljajo sistem AI za določanje zvestobe, se nobeden od predlogov ne zdi posebej zaželen.

Zaenkrat še zadnji komentar.

Rimski učenjak in filozof Mark Tulij Ciceron je izjavil, da ni nič bolj plemenitega, nič bolj častitljivega od zvestobe. Morda dovolimo, da nas umetna inteligenca prehiti in postane orodje za pridobivanje in zagotavljanje »zvestobe« na strašne načine.

Smiseln razlog, da etiko umetne inteligence uvrstimo na vrh našega seznama opravil.

Vir: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- atestiranje-ki-lahko-napoveduje-zatiralske-avtonomne-sisteme/