Etika umetne inteligence, ki se bori z neizogibnimi nesrečami umetne inteligence, ki prežijo tudi na avtonomne samovozeče avtomobile

Ali morda poznate koga, za katerega se zdi, da je še posebej nagnjen k nesrečam?

Zdi se, da to počnemo vsi.

Morda je ta oseba tisti tip, ki je sposoben zdrsniti na bananino lupino ali prevrniti dragoceno vazo v vaši dnevni sobi. So človeški magnet za takšne ali drugačne nesreče. Lahko bi bilo tako hudo, da se včasih celo sovražite biti v njihovi bližini. Morda boste prejeli zlovešči preliv ali utrpeli neslavne posledice ene od njihovih neprijetnih nesreč.

Morda pa smo preveč ostri, ko trdimo, da je kdo bolj nagnjen k nesrečam kot drugi. Lahko bi trdili, da se nesreče lahko zgodijo vsakemu od nas. Vsi smo podvrženi možnosti, da zagrešimo ali se zapletemo v nesrečo. Vključeni so najboljši izmed nas.

Na vrh te razprave naložimo še dodatno moteče vprašanje.

So nesreče neizogibne?

Z drugimi besedami, ne glede na to, kako močno se lahko trudimo preprečiti nesreče, je lahko neločljivo, da kljub temu še vedno obstaja možnost in končna gotovost, da se bodo nesreče zgodile. Lahko si prizadevate zaščititi svet pred nesrečami. To se zdi nedvomno preudarno. Toda tako ali drugače bodo nesreče še vedno dvignile svojo grdo glavo.

Kot pravijo, nesreče čakajo, da se zgodijo.

Morda bi bilo koristno pojasniti, kaj je mišljeno s sklicevanjem na določen dogodek kot ustrezno označen kot nesreča. Običajna slovarska definicija je, da je nesreča vrsta incidenta, ki se zgodi nepričakovano in nenamerno, za katerega obstaja nesrečen rezultat, ki je sestavljen iz videza škode ali poškodbe.

Previdno razpakirajte to definicijo.

Omenjeni incident je nepričakovan. To pomeni, da se nismo zavedali, da bo do nesreče prišlo sama.

Omenjeni incident je nenameren. To nakazuje, da bi morali izključiti okoliščine, v katerih je nekdo namenoma želel, da bi prišlo do incidenta. Če navihanec položi bananin olupek na tla, kamor ve, da bo stopil nesrečen in nič hudega sluteč nedolžen, bi težko trdili, da je oseba, ki se je spotaknila obnjo, doživela nesrečo. Namesto tega so bili prevarani in zahrbtno odpeljani v past.

Definicija vključuje tudi merilo, da je rezultat nesrečen. Nesreča v tej luči mora voditi v slab izid. Oseba, ki je pomotoma prevrnila vazo, je razpočila in morda poškodovala predmet, ki ga ni mogoče popraviti. Lastnik vaze je oškodovan zaradi izgube vrednosti. Oseba, ki je zaletela v vazo, bi lahko zdaj dolžna lastniku za izgubo. Nebesa ne daj, da bi kdo bil zaradi razbitja vaze porezan ali razbit.

Zaradi enakega ravnovesja bi morda želeli opozoriti, da obstajajo tudi tako imenovane »dobre« nesreče. Oseba bi se lahko zaradi nesreče znašla v velikem bogastvu ali pridobila kakšno drugo življenjsko korist. Eden najpogosteje citiranih primerov je Sir Alexander Fleming in njegovo priznano odkritje penicilina. Zgodba pravi, da je bil v svojem laboratoriju nekoliko nepreviden in je po vrnitvi z dvotedenskega dopusta na enem od svojih kulturnih plošč našel plesen. O zadevi je menda povedal tole: »Človek včasih najde tisto, česar ne išče. Ko sem se zbudil takoj po zori 28. septembra 1928, zagotovo nisem nameraval revolucionirati vse medicine z odkritjem prvega antibiotika ali ubijalca bakterij na svetu. Ampak mislim, da je bilo to točno to, kar sem naredil."

Ugodne nesreče bomo pustili ob strani in se osredotočili na žalostne nesreče. Namrščena različica nesreč je tam, kjer so ti škodljivi izidi lahko še posebej smrtno nevarni ali imajo težke posledice. Kolikor je mogoče, negativnih nesreč, ki jih želimo zmanjšati (in seveda navzgor, ki bi jih radi povečali, če je to izvedljivo, čeprav bom to različico smeška obravnaval v kasnejši stolpcu).

Rad bi nekoliko preoblikoval prejšnje vprašanje o neizogibnosti nesreč. Doslej smo pozornost posvečali nesrečam, ki se zgodijo v določenem primeru posamezne osebe. Ni dvoma, da lahko nesreče prizadenejo tudi množico ljudi naenkrat. S tem se lahko srečamo zlasti, ko so ljudje potopljeni v takšen ali drugačen kompleksen sistem.

Pripravite se na različico prejšnjega vprašanja.

Ali so sistemske nesreče neizogibne?

O tem bi morali razmisliti.

Recimo, da je tovarniška tla postavljena za izdelavo delov za avtomobile. Tisti, ki so načrtovali tovarno, so recimo zelo zaskrbljeni zaradi nesreč delavcev, do katerih bi lahko prišlo. Delavci v tovarni morajo ves čas nositi čelade. Znaki v tovarni opozarjajo, da morate biti pozorni na nesreče in biti previdni pri svojem delu. Za preprečitev nesreč se izvajajo vsi možni varnostni ukrepi.

V tem sistemu lahko upamo, da nihče ne bo nikoli doživel nesreče. Ali verjamete, da ni možnosti, da bi se zgodila nesreča? Upam si trditi, da noben razumni mislec ne bi stavil, da je možnost nesreče v tem primeru nič. Verjetnost, da bi se zgodila nesreča, je lahko zelo majhna, vendar še vedno vemo in domnevamo, da kljub vsem previdnostnim ukrepom še vedno obstaja majhna nevarnost, da se nesreča zgodi.

Vse to kaže na idejo, da moramo v dovolj kompleksnem sistemu verjeti, da se bodo nesreče še vedno dogajale, ne glede na to, kako močno jih poskušamo preprečiti. Neradi se zadržujemo pri določitvi, da so sistemske nesreče res neizogibne. Veličastna izjava tega kalibra bi lahko imela opozorilo, da bi moral biti sistem na nekem pragu kompleksnosti, tako da je v bistvu nemogoče pokriti vse osnove, da bi v celoti preprečili nesreče.

Zdaj ste bili natančno, korak za korakom, predstavljeni s široko začrtano teorijo o nesrečah, ki jo lahko označimo kot običajne nesreče ali teorija normalnih nesreč (NAT). Tukaj je priročen opis raziskovalcev, ki so preučili ta pojem: »V dovolj velikem obsegu bo vsak sistem povzročil 'normalne nesreče'. To so neizogibne nesreče, ki jih povzroča kombinacija zapletenosti, povezovanja med komponentami in možne škode. Običajna nesreča se od pogostejših nesreč z okvaro komponent razlikuje po tem, da dogodki in interakcije, ki vodijo do normalne nesreče, niso razumljive operaterjem sistema" (kot je navedeno v "Razumevanje in izogibanje napak AI: Praktični vodnik" Roberta Williamsa in Roman Yampolskiy, Filozofija dnevnik).

Razlog, zakaj sem te pripeljal v deželo t.i običajne nesreče je, da bomo morda morali to teorijo skrbno uporabiti za nekaj, kar postopoma in neizogibno postaja vseprisotno v naši družbi, in sicer na pojav umetne inteligence (AI).

Poglobimo se v to.

Nekateri ljudje napačno domnevajo, da bo AI popolnost. Sistemi umetne inteligence ne bodo delali napak in nas ne bodo spravili v težave, pravijo špekulacije. Vse, kar morate storiti, je zagotoviti, da ti razvijalci umetne inteligence opravijo dovolj dobro delo, in voila, umetna inteligenca nikoli ne bo naredila ničesar, kar bi lahko razumeli kot naključje ali povzročitev nesreče.

Ne tako hitro glede tega hipotetičnega prepričanja. Če ste pripravljeni kupiti teorijo običajne nesrečeVsaka umetna inteligenca katere koli vsebinske kompleksnosti bo neizogibno povzročila nesrečo. Ne glede na to, koliko pozno ponoči popravljajo ti razvijalci umetne inteligence, da bi preprečili nesrečo, bo AI v nekem trenutku zagotovo vpletena v nesrečo. Tako se piškotek drobi. In ni oddiha, če jokamo v našem razlitem mleku zaradi tega.

Razmislite o mešanici AI in konceptualnih načelih običajne nesreče.

Predstavljajte si, da imamo sistem umetne inteligence, ki nadzoruje jedrsko orožje. AI je bila skrbno izdelana. Vsako možno preverjanje in ravnovesje je bilo kodirano v sistem AI. Ali smo varni pred nesrečo, ki bi lahko nastala zaradi umetne inteligence? Tisti, ki podpirajo stališče običajnih nesreč, bi rekli, da nismo tako varni, kot bi lahko domnevali. Glede na to, da je umetna inteligenca verjetno še posebej zapletena, tam tam tiho čaka običajna nesreča, da se nekega dne pojavi, morda v najslabšem možnem trenutku.

Bistvo teh trnovitih vprašanj in pomislekov je, da moramo biti prepričani, da bo AI zagotovo obremenjena z nesrečami in da mora človeštvo storiti nekaj razumnega in proaktivnega glede nevarnosti, ki lahko nastanejo. Kot boste videli čez trenutek ali dva, je to preteča razmislek, ko gre za uporabo umetne inteligence, področje etike umetne inteligence in etične umetne inteligence pa se precej bori, kaj storiti. Za moje stalno in obsežno pokrivanje etike umetne inteligence in etične umetne inteligence glej povezava tukaj in povezava tukaj, samo da navedem nekaj.

Preden gremo v zajčjo luknjo, se prepričajmo, da smo na isti strani glede narave AI. Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeku, ki vam daje nasvete. Še več, ker nekateri špekulirajo, da bi lahko imeli superinteligentno umetno inteligenco, je možno, da bi bila takšna umetna inteligenca na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne umetne inteligence kot možnosti gl. pokritost tukaj). Vsi ti scenariji bi povečali oceno vira.

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkorišča ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Vse povedano, splošno upanje je, da bomo z vzpostavitvijo občutka za etične predpise umetne inteligence vsaj lahko povečali družbeno zavest o tem, kaj lahko umetna inteligenca tako dobro naredi kot tudi škodljivo. Obširno sem razpravljal o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in ki so preučevali in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da so "samo koderji" ali tisti, ki programirajo umetno inteligenco, podvrženi spoštovanju konceptov etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

Morda bomo morali hvaljenim seznamom etike umetne inteligence dodati, da jih moramo izrecno upoštevati in sprejeti odločne ukrepe, da preprečimo ali vsaj močno omilimo posledice umetne inteligence. običajne nesreče to se lahko zgodi. Tisti, ki razvijajo umetno inteligenco, se morajo na tem področju potruditi. Tisti, ki uporabljajo AI, morajo storiti enako. Tisti, ki uporabljajo umetno inteligenco ali so nekako podvrženi AI, bi morali biti previdni in pozorni na možnost nesreč z umetno inteligenco, do katerih se zdi, da se bodo zgodile.

Morda vas mika, da mislite, da je mogoče v AI vgraditi dovolj previdnostnih ukrepov, da bi se verjetnost nesreče zmanjšala na nič. Za tiste, ki se ukvarjajo s tehniko, je običajna posmeh, da če lahko kos tehnologije povzroči težavo, lahko drugi kos tehnologije zagotovo reši težavo. Nadaljujte z metanjem vedno več tehnologije, dokler težava ne izgine.

No, tisti, ki so preučevali sistemsko usmerjene nesreče, bi se nagnjeni k temu, da se ne strinjajo in vljudno odgovarjajo na domnevno tehnično pompoznost, tako da ponudijo stališče, znano kot model švicarskega sira (SCM): »V SCM so plasti varnosti modelirane kot rezine sir z luknjami, ki predstavljajo šibke točke v vsaki plasti varnosti. Sčasoma luknje spremenijo obliko in se premikajo. Sčasoma, ne glede na to, koliko rezin sira (varnostnih plasti) je, se bodo luknje poravnale, kar bo omogočilo neposreden udarec skozi vse rezine sira (pride do nesreče)« (po prej citiranem prispevku Roberta Williamsa in Romana Yampolskega ).

Nočem se zatakniti v to stransko tangento glede tega, ali obstaja zagotovljen način za programiranje AI, da v celoti in vedno prepreči vsako možnost nesreče. Obstajajo vse vrste matematičnih in računalniških dokazovalnih pristopov, ki se preizkušajo. Mislim, da je razumno in pošteno izjaviti, da danes nimamo razširljive delovne metode niti tehnologij, ki bi lahko zagotovile takšno ničelno možnost, poleg tega pa smo zagotovo obremenjeni s tonami umetne inteligence, ki se nenadoma proizvaja. vem zagotovo ni poskušal spoštovati takšnih praks. Ta zadnja točka je ključnega pomena, saj je tudi če lahko nekaj izmislimo v laboratoriju umetne inteligence, ki to poveča na milijone divjih in brezskrbnih prizadevanj umetne inteligence, ki potekajo in se bo to še naprej pojavljalo, je zavozlana težava in verjetno ne bo rešena, tudi če bi računalniški dokazovalni stroj srebro krogla je obstajala.

Druga točka, za katero menim, da si zasluži kratko omembo, je umetna inteligenca, ki se zaradi zlonamernih človeških akterjev spremeni v neljuba dejanja. Teh primerov ne bom uvrstil v področje nesreč z umetno inteligenco. Ne pozabite, da je uvodna razprava namigovala, da je slovarska definicija nesreče incident nenamerno narave. Če človeški kibernetski prevarant uspe prisiliti sistem umetne inteligence, da naredi slabe stvari, te umetne inteligence ne razvrstim kot nesrečo. Verjamem, da se boste strinjali s to domnevo.

Postavlja se zanimivo vprašanje, koliko različnih neljubih dejanj umetne inteligence je mogoče pripisati zgolj nesreči z umetno inteligenco v primerjavi z zvijačnim dejanjem kibernetskega kriminalca. Glede na nekatere obstoječe zbirke podatkov o incidentih, ki poročajo o AI, se zdi, da se nesreče z umetno inteligenco zgodijo bolj kot zlonamerno spodbujeni incidenti, čeprav morate to predstavo jemati z veliko dozo soli. To pravim, ker obstaja velika skušnjava, da ne bi poročali, ko je bil sistem umetne inteligence napaden, in bi bili morda nekoliko bolj pripravljeni poročati, ko pride do nesreče z umetno inteligenco.

V zvezi z nesrečami z umetno inteligenco moramo razpravljati o izjemno pomembnem opozorilu.

Uporaba izraza »nesreče z umetno inteligenco« je na splošno nezaželena in bo ustvarila precejšen nered za vse nas, kar pomeni za vso družbo. Ko se človek zgodi nesrečo, pogosto skomignemo z rameni in sočutnimo do osebe, ki je imela nesrečo. Zdi se, da besedo "nesreča" obravnavamo, kot da pomeni, da nihče ni odgovoren za to, kar se je zgodilo.

Vzemimo primer prometne nesreče. En avto v desnem zavoju široko zaniha in se po nesreči zaleti v drugi avto, ki je peljal naravnost naprej. Hudiča, to je bila samo nesreča in se je zgodila po naključju. Tisti, ki niso bili vpleteni v incident, bodo morda pustili zadevo zdrsniti, če bo dogodek predstavljen kot zgolj nesreča, ki se je zgodila.

Imam pa občutek, da če bi bil v avtu, ki se je zaletel, ne bi bil tako naklonjen vozniku, ki je zavil preširoko. Vaše mnenje bi zagotovo bilo, da je bil drugi voznik zanič voznik in da je do prometne nesreče pripeljala domnevno nezakonita ali nespametna vožnja. Z označevanjem incidenta kot »nesreče« je voznik, ki se je obtičal, zdaj nekoliko v slabšem položaju, saj se zdi, da se je vse zgodilo zgolj po naključju in ne prek rok voznika, ki je zamotil.

Pravzaprav je beseda »nesreča« tako polna različnih konotacij, da vladna statistika o prometnih nesrečah na splošno to zadevo označuje kot trčenja avtomobilov ali prometne nesreče, namesto da bi uporabljala besedno zvezo prometne nesreče. Zdi se, da trčenje avtomobila ali prometna nesreča nima nobenih posledic o tem, kako je do incidenta prišlo. Medtem nas besedna zveza »prometna nesreča« skoraj napelje na misel, da je šlo za naključje usode ali nekako zunaj rok človeštva.

Veliko lahko vidite, kako se ta konotacijski premislek pokaže pri sklicevanju na nesreče z umetno inteligenco. Ne želimo, da bi se razvijalci umetne inteligence skrivali za konotacijskim ščitom, da je AI nekomu po nesreči povzročila škodo. Enako velja za tiste, ki uporabljajo AI. Lahko bi trdili, da je fraza »nesreče umetne inteligence« skoraj antropomorfiziranje umetne inteligence, ki bo družbo zavedla, da bo ljudem, ki so bili v ozadju AI, omogočila, da se izognejo odgovornosti. Za mojo razpravo o naraščajočem pomenu prevzemanja odgovornosti ljudi za svojo umetno inteligenco glejte mojo razpravo na tukaj povezava in tukaj povezava.

Odslej bom uporabljal izraz nesreč z umetno inteligenco, vendar to počnem nejevoljno in samo zato, ker je to običajen način sklicevanja na ta pojav. Poskusi, da bi to izrazili drugače, so na žalost bolj napihnjeni in jih ni tako enostavno brati. Prosimo, poskrbite, da boste besedno zvezo razlagali na način, ki ne povzroči, da pogledate v drugo smer in da se ne zavedate, da so ljudje, na katerih temelji AI, krivi, ko gre AI narobe.

Da bi ponazorili verjetno zmedo ali zavajajoče vidike sklicevanja na umetno inteligenco kot na nesrečo, se lahko vrnemo k mojim pripombam o trkanju vaze. Razmislite o tem primeru, ko to počne AI: »Ta težava je povezana s stvarmi, ki jih AI naredi po naključju ali brezbrižnosti. En primer tega je čistilni robot, ki prevrne vazo. Kompleksna okolja imajo toliko vrst 'vaz', da verjetno ne bomo mogli programirati kazni za vse stranske učinke« (po prispevku Roberta Williamsa in Romana Yampolskega).

Zdi se, da sistem umetne inteligence, ki se uporablja v gospodinjstvu in nato "po nesreči" prevrne vazo, nakazuje, da za to škodljivo delovanje AI ne bi smeli biti krivi nikogar. To je bila le nesreča, bi se lahko obžalovali. Po drugi strani pa bi se morali upravičeno vprašati, zakaj sistem AI ni bil programiran za obvladovanje okoliščin vaze na splošno. Tudi če razvijalci umetne inteligence niso predvidevali, da je vaza sama po sebi v okviru predmetov, na katere bi lahko naleteli, se lahko zagotovo vprašamo, zakaj ni bilo nekega splošnega izogibanja predmetom, ki bi preprečilo, da bi sistem AI prevrnil vaza (tako AI morda ne bi razvrstil vaze kot vazo, vendar bi se ji vseeno lahko izognil kot zaznavnemu predmetu, ki se mu je treba izogibati).

Napovedoval sem in še naprej napovedujem, da se postopoma usmerjamo proti ogromni pravni bitki zaradi pojava sistemov umetne inteligence, ki se znajdejo v »nesrečah z umetno inteligenco« in povzročijo neko obliko škode. Družba se do zdaj ni na kakršen koli način odzvala na pravno odpor proti umetni inteligenci, ki je z lopato izrinjena na trg in povzroča škodljive posledice, bodisi namerno bodisi nenamerno. Današnji razpon umetne inteligence, ki je postal zlata mrzlica napol pečenih izdelovalcev umetne inteligence in tistih, ki naglo izvajajo uvedbo umetne inteligence, ima zdaj srečo in ostaja relativno nedotaknjen s civilnimi tožbami in kazenskimi pregoni.

Prej ali slej bo prišlo do pravnega odziva, ki ga spodbuja umetna inteligenca.

Če nadaljujemo, kako naj se skušamo soočiti z neizogibnostjo tako imenovanih nesreč z umetno inteligenco?

Ena stvar, ki jo lahko storimo takoj, je, da poskušamo predvideti, kako bi lahko prišlo do nesreč z umetno inteligenco. S predvidevanjem nesreč z umetno inteligenco si lahko vsaj prizadevamo oblikovati sredstva za njihovo zmanjšanje ali zmanjšanje verjetnosti, da se bodo zgodile. Poleg tega lahko poskušamo postaviti zaščitne ograje, tako da se zmanjšajo možnosti demonstracije škode, ko se zgodi nesreča z umetno inteligenco.

Koristni niz dejavnikov, ki so bili opisani v prej citiranem raziskovalnem članku Razumevanje in izogibanje napakam AI: Praktični vodnik vključuje te lastnosti (kot je navedeno v raziskovalnem prispevku):

  • Sistem, na katerega vplivajo izhodi AI.
  • Časovna zakasnitev med izhodi AI in večjim sistemom, opaznost sistema, raven človeške pozornosti in sposobnost operaterjev, da popravijo okvare AI.
  • Največja možna škoda zaradi zlonamerne uporabe sistemov, ki jih nadzoruje AI.
  • Povezovanje komponent v bližini AI in kompleksnost interakcij.
  • Vrzel v znanju o AI in drugih uporabljenih tehnologijah ter energijski ravni sistema.

Stavim, da si na tem mestu te obsežne razprave želite nekaj ilustrativnih primerov, ki bi lahko dodatno razjasnili temo nesreč z umetno inteligenco. Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Kot strokovnjaka za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, razsvetljuje kaj o pojavu tako imenovanih nesreč z umetno inteligenco in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in incidenti z umetno inteligenco

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Verjamem, da to zagotavlja dovolj litanij opozoril, na podlagi katerih bom povedal.

Zdaj smo pripravljeni, da se poglobimo v samovozeče avtomobile in možnosti etične umetne inteligence, kar pomeni pojav tako imenovanih nesreč z umetno inteligenco.

Predstavljajte si, da se samovozeči avtomobil, ki temelji na umetni inteligenci, vozi po ulicah v vaši soseski in se zdi, da vozi varno. Sprva ste vsakič, ko ste uspeli ujeti pogled na samovozeči avto, posvetili posebno pozornost. Avtonomno vozilo je izstopalo s svojo stojalo elektronskih senzorjev, ki so vključevali video kamere, radarske enote, naprave LIDAR in podobno. Po mnogih tednih samovozečega avtomobila, ki kroži po vaši skupnosti, ga zdaj komaj opazite. Kar se vas tiče, je to zgolj še en avto na že tako prometnih javnih cestah.

Da ne bi mislili, da je nemogoče ali neverjetno spoznati videnje samovozečih avtomobilov, sem pogosto pisal o tem, kako so se kraji, ki so v okviru preizkusov samovozečih avtomobilov, postopoma navadili videti polepšana vozila. Številni domačini so se sčasoma preusmerili z zanečenega zuljenja z razpršenimi usti in zdaj oddajali ekspanzivno zehanje dolgčasa, da bi bili priča tem vijugastim samovozečim avtomobilom.

Verjetno je zdaj glavni razlog, da bi lahko opazili avtonomna vozila, posledica razdraženosti in razdraženosti. Sistemi za vožnjo z umetno inteligenco, ki so običajni v knjigi, zagotavljajo, da avtomobili spoštujejo vse omejitve hitrosti in cestna pravila. Za naporne človeške voznike v njihovih tradicionalnih avtomobilih, ki jih poganja človek, se občasno razjezite, ko obtičate za samovozečimi avtomobili na osnovi umetne inteligence, ki spoštujejo zakone.

To je nekaj, na kar se bomo morda morali vsi navaditi, upravičeno ali ne.

Nazaj k naši zgodbi.

Nekega dne se samovozeči avto ponesreči.

Med zavijanjem v desno je sistem za vožnjo z umetno inteligenco avtonomno vozilo močno zavihtel in trčil je avtomobil, ki ga je poganjal človek. Avto, ki ga je pogajal človek, je vozil naravnost po pravilnem prometnem pasu. Človeški voznik ni imel posebne priložnosti, da bi zavil ali se izognil udarcu. Poleg tega samovozeči avtomobil ni opozoril ali opozoril, da bo močno zavil v pravi zavoj.

Je to nesreča?

Vsekakor lahko rečemo, da je zajeto v rubriko nesreče z umetno inteligenco. Podlaga za takšno trditev je, da je bil za volanom samovozečega avtomobila sistem vožnje z umetno inteligenco. Nekako, iz kakršnih koli razlogov, se je AI odločila za širok zamah, ko je zavila v desno. Posledica tega je, da je samovozeči avtomobil trčil v avtomobil, ki ga je vozil človek.

Spomnite se prejšnje razprave o konotacijah, povezanih z besedo "nesreča", in poglejte, kako se takšni podtoni pojavijo v tem scenariju. Ne pozabite tudi, da smo razpravljali o primeru človeškega voznika, ki je zavil širok desni zavoj in trčil v avto, ki ga je poganjal kolega. Ugotovili smo, da je predstava o tem dejanju »nesreča« zavajajoča in zmedena. Človeški voznik, ki je naredil širok zamah, se je lahko skril za idejo, da se je zgodila nesreča, ki je bila navidezno po naključju ali po naključju usode.

Namesto da bi scenarij označili kot »nesrečo z umetno inteligenco« v primeru, ko se samovozeči avtomobil, ki temelji na umetni inteligenci, šel na široko in trčil v avtomobil, ki ga poganja človek, bi morda morali reči, da je šlo za prometno nesrečo ali trčenje avtomobila, ki je vključeval samo- vozniški avtomobil in avtomobil, ki ga poganja človek. Nato se lahko odpovemo prazni zmedi, da gre za nesrečo neznanih sredstev.

Kakšen bi bil po vašem mnenju odziv javnosti na incident?

No, če se lahko proizvajalec avtomobilov ali samovozeča tehnološka družba drži označevanja zadeve kot nesreče, bi se morda lahko izognili morebitnemu odzivu skupnosti na splošno. Občutek sočutja do vseh opisanih nesreč bi se morda prelil na določeno okoliščino. Za več o tem, kako se bodo mesta, okrožja in državni voditelji potencialno odzvali na incidente z avtonomnimi vozili z umetno inteligenco, si oglejte razpravo o študiji Harvarda, ki sem jo vodil in kot je opisano na povezava tukaj.

Če je situacija jasno opisana kot prometna nesreča ali avtomobilsko trčenje, bi morda to omogočilo spoznanje, da je morda nekdo ali nekaj kriv za incident. Pretresljiva reakcija bi lahko bila, da je AI odgovorna. Stvar je v tem, da dokler se ali če se kdaj ne odločimo, da AI označimo za podobo pravne osebe, ne boste mogli odgovornosti preložiti na AI per se (glejte mojo razpravo o AI in pravni osebi na povezava tukaj).

Lahko pregledamo sistem vožnje z umetno inteligenco, da poskusimo ugotoviti, kaj je povzročilo navidezno neprimerno vožnjo in posledično prometno nesrečo. To pa ne pomeni, da bo AI odgovorna. Odgovorne strani so razvijalci umetne inteligence, upravljavec voznega parka samovozečega avtomobila in drugi. Vključujem tudi druge, saj obstaja možnost, da bi bilo mesto delno odgovorno za oblikovanje vogala, kjer je potekal zavoj. Poleg tega predpostavimo, da je pešec zaletel iz vogala in se je sistem vožnje z umetno inteligenco odločil, da se izogne ​​osebi, nato pa se je zapletel v prometno nesrečo.

In tako naprej.

zaključek

Želeli bi vedeti, kaj je AI računalniško izračunala in za kaj je bila programirana. Ali je AI naredil, kot je bilo kodirano? Morda je AI naletel na napako ali napako v programiranju, kar ne opravičuje dejanj, ampak daje več namiga o tem, kako je prišlo do zrušitve.

Kakšne zaščitne ograje z umetno inteligenco so bile programirane v sistem vožnje z umetno inteligenco? Če bi obstajala varovala, bi želeli ugotoviti, zakaj se zdi, da ne preprečijo prometne nesreče. Morda bi se sistem vožnje z umetno inteligenco lahko ustavil, namesto da bi zavil. Radi bi vedeli, katere alternative je AI računalniško ocenila med incidentom.

Poleg tega, da pridemo do dna posameznega incidenta, je še ena upravičena pomisleka, ali ima sistem vožnje z umetno inteligenco napako ali drug vgrajen vidik, ki bo povzročil podobne vrste škodljivih dejanj. V bistvu bi lahko bil ta incident opozorilni pokazatelj še več. Kako so bile uporabljene računalniške simulacije voznih situacij, da bi poskusili predvideti to vrsto pozivanja sistema AI za vožnjo? Ali je bilo dovolj vozniških izpitov na cestišču, da bi ugotovili težave z umetno inteligenco, ki bi lahko privedle do prometne nesreče?

Ta scenarij poudarja sporno uganko, ki se sooča s pojavom samovozečih avtomobilov, ki temeljijo na umetni inteligenci.

Gre takole.

Po eni strani obstaja družbena želja po hitrem prevzemu samovozečih avtomobilov zaradi upanja, da bodo sistemi za vožnjo z umetno inteligenco enako varni ali morda varnejši od človeških voznikov. Samo v Združenih državah imamo trenutno skoraj 40,000 človeških smrtnih žrtev letno zaradi prometnih nesreč in približno 2.5 milijona človeških poškodb. Analize kažejo, da je velik del teh prometnih nesreč posledica človeških napak, kot so vožnja pod vplivom alkohola, vožnja v raztresenosti itd. (glejte mojo oceno takšnih statističnih podatkov na povezava tukaj).

Sistemi za vožnjo z umetno inteligenco ne bodo pili in vozili. Ne bodo potrebovali počitka in se med volanom ne bodo iztrošili. Domneva se, da lahko z vzpostavitvijo samovozečih avtomobilov kot izvedljivega načina prevoza zmanjšamo število človeških voznikov. To pa bi moralo pomeniti, da bomo v celoti zmanjšali število letnih smrtnih žrtev in poškodb ljudi v prometnih nesrečah.

Nekateri strokovnjaki so rekli, da bomo na koncu imeli nič smrtnih žrtev in nič poškodovanih, ti samovozeči avtomobili pa naj bi bili nezmočljivi, vendar je to povsem absurden in popolnoma napačen niz pričakovanj. Pojasnil sem, zakaj je to tako neiskreno pri povezava tukaj.

V vsakem primeru predpostavimo, da bomo imeli nekaj prometnih nesreč, v katere bodo udeleženi samovozeči avtomobili. Predpostavimo tudi, da bodo te prometne nesreče imele nekaj smrtnih žrtev in poškodb. Vprašanje, ki se muči, je, ali smo kot družba sploh pripravljeni tolerirati takšne primere. Nekateri pravijo, da je treba celoten komplet in kaboodle zapreti, če se zaradi resničnih samovozečih avtomobilov zgodi celo ena smrtna žrtev ali ena poškodba.

Izravnalno stališče je, da če rešena življenja zmanjšujejo letno število, bi morali še naprej spodbujati pojav samovozečih avtomobilov in ne reagirati na tako nelogičen način. Sprejeti bomo morali predpostavko, da bo nekaj smrtnih žrtev in poškodb še vedno obstajalo, tudi pri samovozečih avtomobilih, in vendar se zavedati, da letno število, če se zmanjša, kaže, da smo na pravi poti.

Nekateri seveda trdijo, da ne bi smeli imeti samovozečih avtomobilov na naših javnih cestah, dokler niso bodisi odobreni za takšno uporabo kot rezultat obsežnih in izčrpnih računalniško podprtih simulacij ali kot z zasebnim testiranjem na zaprti progi. Protiargument je, da je edini izvedljiv in najhitrejši način za zagon samovozečih avtomobilov uporaba javnih cest in da bodo kakršne koli zamude pri uvajanju samovozečih avtomobilov sicer omogočile nadaljevanje grozljivega števila trkov, ki jih vozi človek. To razpravo sem podrobneje obravnaval v svojih kolumnah in pozivam bralce, naj si ogledajo te razprave, da bi dobili popoln občutek o perspektivah o tej sporni zadevi.

Za zdaj zaključimo stvari.

Zgodile se bodo nesreče z umetno inteligenco. Upreti se moramo impulzu, da bi nesrečo z umetno inteligenco razumeli kot navidezno naključno in zato lažno pustimo, da so ustvarjalci in tisti, ki uporabljajo umetno inteligenco, kategorično izključeni.

Obstaja še dodaten zasuk, ki vam ga puščam kot zadnjo zanimivo misel za vaš dan.

Komik Dane Cook je menda povedal ta vic o prometnih nesrečah: »Pred nekaj dnevi sem doživel prometno nesrečo. Ni moja krivda. Tudi če nisi kriva, druga oseba stopi iz svojega avta in te pogleda, kot da si ti kriv: Zakaj si se ustavil na rdeči luči in pustil, da te udarim pri 80!

Kjer pride v ospredje zasuk, je možnost, da bi se sistem umetne inteligence odločil vztrajati, da ko pride do nesreče z umetno inteligenco, ki vključuje to določeno umetno inteligenco, AI navaja, da je bil incident kriv človek in zagotovo ni krivda umetne inteligence. Mimogrede, to bi lahko bilo zelo res in človek bi morda poskušal grešnega kozla AI s trditvijo, da je za to kriva AI.

Ali pa morda umetna inteligenca poskuša grešnega kozla človeka.

Vidite, umetna inteligenca, ki jo oblikujemo, je lahko tako zapletena, bodisi po naključju ali ne.

Vir: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- tudi vožnja z avtomobili/