Etika umetne inteligence in iskanje samozavedanja v umetni inteligenci

Se zavedaš samega sebe?

Stavim, da verjameš, da si.

Stvar je v tem, da se menda malokdo izmed nas posebej zaveda samega sebe. Obstaja razpon ali stopnja samozavedanja in vsi naj bi se razlikovali glede tega, kako bistroumno se samozavedamo. Morda mislite, da se popolnoma zavedate samega sebe, pa ste le obrobni. Morda se slabo zavedate samega sebe in se zavedate, da je to vaše duševno stanje.

Medtem pa boste na najvišjem delu spektra morda verjeli, da se popolnoma zavedate samega sebe in ste odkrito povedano tako samozavedni, kot so. Dobro zate.

Ko smo že pri tem, kaj koristi, če se pretirano zavedamo samega sebe?

Glede na raziskave, objavljene v Harvard Business Review (HBR) Tashe Eurich, domnevno ste sposobni sprejemati boljše odločitve, ste bolj samozavestni v svojih odločitvah, močnejši ste v svojih komunikacijskih zmožnostih in na splošno bolj učinkoviti (na članek z naslovom »Kaj v resnici je samozavedanje (in kako) to Cultivate It)." Dodatni dejavnik je, da naj bi bili tisti z ostrim samozavedanjem manj nagnjeni k goljufanju, kraji ali laži. V tem smislu obstaja še ena možnost, da preprečimo, da bi bili lopov ali prevarant, skupaj z si prizadevati biti boljši človek in olepšati sočloveštvo.

Vsa ta govorica o samozavedanju odpira nekoliko očitno vprašanje, namreč, kaj besedna zveza samozavedanje pravzaprav označuje. Brez težav lahko najdete na tone različnih definicij in razlag o kompleksnem in naj rečemo kašastem konstruktu, ki vključuje samozavedanje. Nekateri bi zadeve poenostavili tako, da predlagajo, da je samozavedanje sestavljeno iz spremljanja lastnega jaza, zavedanja, kaj nameravate. Zelo se zavedate svojih misli in dejanj.

Verjetno se oseba, ki se ne zaveda samega sebe, ne bi zavedala, kaj počne, niti zakaj tako, in se tudi ne bi zavedala, kaj imajo drugi ljudje povedati o njej. Prepričan sem, da ste že srečali takšne ljudi.

Zdi se, da nekateri ljudje hodijo po svetu, ne da bi vedeli, kaj sami počnejo, in niti približno ne vedo, kaj drugi govorijo o njih. Predvidevam, da bi lahko trdili, da so kot bik, ki strmi navzdol, v butiku občutljivih lomljivih izdelkov. Običajno smo nagnjeni k prepričanju, da bik ne ve, kaj počne, in se ne zaveda mnenj drugih, razen če ti drugi poskušajo fizično manevrirati ali ujeti nevedno bitje.

Rečeno je, da je lahko samozavedanje nekoliko rekurzivno.

Naj skiciram primer za ponazoritev te rekurzije. Ste sredi gledanja precej zanimivega mačjega videa na svojem pametnem telefonu (zdi se, da to počnejo vsi). Nekateri ljudje ne bi imeli drugih očitnih misli razen čudovitih prisrčnih norčij teh dragih mačk. Medtem se vsak, ki ima le malo samozavedanja, zaveda, da gleda mačji video. Morda se tudi zavedajo, da drugi okoli njih opazijo, da gledajo mačji video.

Upoštevajte, da se lahko zavedate samega sebe in ste še vedno potopljeni v, tako rečemo, določeno primarno dejavnost. Primarna dejavnost v tem primeru je gledanje mačjega videa. Sekundarno in hkrati lahko nosite misel, da v resnici gledate mačji video. Prav tako lahko nosite misel, da vas drugi opazujejo, medtem ko gledate povsem zabaven mačji video. Ni nujno, da morate ustaviti eno dejavnost, na primer prekiniti gledanje mačjega videa, da bi nato ločeno razmišljali, da gledate (ali ste pravkar gledali) mačji video. Te misli se lahko na videz pojavljajo vzporedno ena z drugo.

Včasih nas lahko naše samozavedanje izloči ali vsaj prekine primarno mentalno dejavnost. Morda se vaš um, medtem ko razmišljate o gledanju videoposnetka mačke, delno umakne, saj se preveč naprezate, da bi se osredotočili samo na sam videoposnetek. Odločite se, da nato videoposnetek previjete nazaj, da ponovno pregledate del, ki ste ga nekako videli, vendar vas je mentalno motilo, da bi ga popolnoma razumeli. Samozavedanje je motilo vašo primarno miselno dejavnost.

V redu, zdaj smo pripravljeni na pojav rekurzivnih vidikov.

Ste pripravljeni?

Gledate mačji video. Vaše samozavedanje vas obvešča, da gledate mačji video in da vas drugi gledajo, ko gledate video. To je status quo.

Naslednji naredite dodaten mentalni preskok. Začneš razmišljati o svojem samozavedanju. Zavedate se, da vključujete svoje samozavedanje. Takole gre: Ali preveč razmišljam o svojem gledanju mačjega videa, se obupano sprašujete? To je še ena plast samozavedanja. Samozavedanje na vrhu drugega samozavedanja.

Star pregovor pravi, da so želve vse do konca. Za pojave samozavedanja bi lahko bili:

  • Ne zavedaš se samega sebe
  • Zavedanje samega sebe
  • Self-aware of your self-aware of yourself
  • Self-aware of your being self-aware of your self-awareness of yourself
  • Ad Infinitum (tj. in tako naprej)

Morda ste ugotovili, da sem prej subtilno poudaril, da se zdi, da obstajata dve glavni kategoriji samozavedanja. Ena posebna teorija predpostavlja, da imamo neke vrste notranje samozavedanje, ki se osredotoča na naša notranja stanja, imamo pa tudi zunanje samozavedanje, ki pomaga pri ocenjevanju dojemanja tistih okoli nas, ki nas opazujejo, o nas.

Glede na članek HBR je tukaj kratek prikaz teoretiziranih dveh vrst samozavedanja: »Prva, ki smo jo poimenovali notranje samozavedanje, predstavlja, kako jasno vidimo lastne vrednote, strasti, želje, skladnost z našim okoljem, reakcije (vključno z mislimi, občutki, vedenjem, močmi in slabostmi) in vpliv na druge.« In medtem je drugi: "Druga kategorija, zunanje samozavedanje, pomeni razumeti, kako na nas gledajo drugi ljudje v smislu istih dejavnikov, navedenih zgoraj. Naše raziskave kažejo, da so ljudje, ki vedo, kako jih vidijo drugi, bolj spretni pri izkazovanju empatije in sprejemanju perspektive drugih.«

Priročno matriko dva krat dva ali štirikvadrat lahko izpeljemo tako, da trdimo, da se tako notranje kot zunanje samozavedanje gibljeta od visokega do nizkega, obe kategoriji pa lahko primerjate eno z drugo. Raziskava HBR kaže, da naj bi bili eden od teh štirih arhetipov samozavedanja:

  • Introspektor: nizko zunanje samozavedanje + visoko notranje samozavedanje
  • Iskalec: nizko zunanje samozavedanje + nizko notranje samozavedanje
  • Prosim: visoko zunanje samozavedanje + nizko notranje samozavedanje
  • Zavedanje: visoko zunanje samozavedanje + visoko notranje samozavedanje

Vrhunec bi bil arhetip »Zavedanja«, ki sestoji iz tega, da smo na najvišji stopnici zunanjega samozavedanja in prav tako na vrhu notranjega samozavedanja. Če pojasnimo, te hvaljene drže ne dosežete nujno trajno. Lahko drsiš naprej in nazaj med visokim in nizkim, tako med notranjim kot zunanjim področjem samozavedanja. Lahko je odvisno od časa dneva, situacije, v kateri ste se znašli, in množice drugih pomembnih dejavnikov.

Zdaj, ko smo prijazno zajeli nekaj temeljnih elementov o samozavedanju, lahko to poskušamo povezati s temo etičnega vedenja.

Običajna trditev o zavedanju samega sebe je, da je večja verjetnost, da boste nadpovprečni, ko se zavedate samega sebe. To pomeni, kot je bilo že omenjeno, da ste manj nagnjeni k škodljivemu etičnemu vedenju, kot so kraja, goljufanje in laganje. Razlog za to težnjo je, da bi zaradi aktivnega samozavedanja spoznali, da je vaše lastno vedenje neprijetno ali neetično. Ne le, da se sami ujamete, ko zavijete v blatne neetične vode, ampak ste tudi nagnjeni k temu, da se vrnete ven in na suho (svetost etičnega ozemlja), tako rekoč.

Vaše samozavedanje vam pomaga pri izvajanju samokontrole.

Kontrast bi verjetno bil takrat, ko je malo ali nič samozavedanja, kar nakazuje, da nekdo morda ne opazi svojega nagnjenja k neetičnemu vedenju. Lahko trdite, da se tako nezavedna oseba morda ne zaveda, da deluje negativno. Podobno kot bik v trgovini z lomljivimi izdelki, dokler nekaj bolj odkrito ne pritegne njihove pozornosti, se verjetno ne bodo samoregulirali.

Mimogrede, tega ne sprejmejo vsi. Nekateri bi trdili, da je samozavedanje mogoče zlahka uporabiti za neetičnost kot za etičnost. Na primer, zločinec se lahko popolnoma zaveda samega sebe in uživa v tem, da dela narobe. Njihovo samozavedanje jih celo bolj odločno žene k vedno večjim dejanjem nečednega neprimernega ravnanja.

Na tem je več oblačnosti, kot se zdi neposredno na prvi pogled. Recimo, da se nekdo močno zaveda samega sebe, vendar se ne zaveda etičnih navad določene družbe ali kulture. Tako nimajo nobenih etičnih usmeritev, kljub navedenemu dejstvu, da so samozavedni. Ali, če želite, morda oseba ve za etične predpise in ne verjame, da veljajo zanje. Menijo, da so edinstveni ali zunaj meja običajnega etičnega razmišljanja.

Krog in krog gre.

Nekateri bi goreče poudarili, da bi lahko samozavedanje razumeli kot dvorezen etično usmerjen meč.

Zaenkrat pojdimo na različico veselega obraza, ki je sestavljena iz samozavedanja, ki nas v veliki meri vodi ali potiska k etičnemu vedenju. Če bo vse ostalo enako, bomo naredili drzno predpostavko, da več kot je samozavedanja, bolj boste etično nagnjeni. Vsekakor se zdi prijetno in navdihujoče, če si to želimo.

Prestavimo prestavo in vključimo umetno inteligenco (AI).

Smo na razpotju v tej razpravi, da povežemo vse tekoče zaplete z rastočim področjem etične umetne inteligence, splošno znane tudi kot etika umetne inteligence. Za moje stalno in obsežno pokrivanje etike umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Pojem etične umetne inteligence vključuje prepletanje polja etike in etičnega vedenja do pojava umetne inteligence. Zagotovo ste že videli naslove, ki so sprožili alarm glede umetne inteligence, ki je polna neenakosti in različnih pristranskosti. Obstajajo na primer pomisleki, da lahko sistemi za prepoznavanje obrazov, ki temeljijo na umetni inteligenci, včasih kažejo rasno diskriminacijo in diskriminacijo na podlagi spola, običajno zaradi tega, kako so bile osnovne zmogljivosti strojnega učenja (ML) in globokega učenja (DL) usposobljene in uporabljene (glejte mojo analizo pri tukaj povezava).

Da poskusim ustaviti ali vsaj omiliti naglice AI za slabo, sestavljen iz sistemov umetne inteligence, ki so bodisi nehote ali včasih namerno oblikovani tako, da delujejo slabo, je nedavno prišlo do nujnosti uporabe etičnih predpisov pri razvoju in uporabi umetne inteligence. Resen cilj je zagotoviti etične smernice razvijalcem umetne inteligence ter podjetjem, ki gradijo ali uporabljajo umetno inteligenco, in tistim, ki so odvisna od aplikacij umetne inteligence. Kot primer etičnih načel umetne inteligence, ki so oblikovana in sprejeta, glejte mojo pokritost na povezava tukaj.

Vzemite si trenutek za razmislek o teh treh zelo ključnih vprašanjih:

  • Ali lahko pripravimo razvijalce umetne inteligence, da sprejmejo načela etične umetne inteligence in te smernice dejansko uporabijo?
  • Ali lahko pridobimo podjetja, ki izdelujejo ali uporabljajo AI, da storijo enako?
  • Ali lahko dosežemo, da bodo tisti, ki uporabljajo AI, podobno seznanjeni z etičnimi vidiki AI?

Brez sramu bi rekel, da je to težka naloga.

Vznemirjenje ob izdelavi umetne inteligence lahko prevlada nad kakršnim koli namigom pozornosti do etike umetne inteligence. No, ne le vznemirjenje, tudi služenje denarja je sestavni del te enačbe. Morda boste presenečeni, ko veste, da nekateri na področju umetne inteligence trdijo, da se bodo lotili »stvari« etične umetne inteligence, ko bodo svoje sisteme umetne inteligence spravili ven. To je tipična tehnološka mantra, ki poskrbi, da boste hitro in pogosto spodleteli, dokler vam ne uspe (upajmo, da vam bo uspelo).

Seveda pa tisti, ki etično dvomljivo umetno inteligenco na hitro podrivajo v širšo javnost, spuščajo konja iz hleva. Njihova razglašena razširjena ideja je, da AI za slabo se bo popravilo, ko bo v vsakodnevni uporabi, kar je škodljivo za pozno, saj konj že brezobzirno galopira naokoli. Škoda se lahko naredi. Obstaja tudi večja verjetnost, da se med uporabo umetne inteligence nič ne popravi ali prilagodi. Pogost izgovor je, da bi igranje z umetno inteligenco v tem trenutku lahko še poslabšalo v smislu že tako neetičnega algoritemskega odločanja (ADM), ki bi se popolnoma izognilo.

Kaj je mogoče storiti, da pridobimo uporabnost in vitalnost etične umetne inteligence kot svetlo svetleče in vodilne luči v glavah tistih, ki gradijo umetno inteligenco, uveljavljajo umetno inteligenco in uporabljajo umetno inteligenco?

Odgovor: Samozavedanje.

Da, ideja je, da če bi se ljudje bolj zavedali, kako uporabljajo ali komunicirajo z umetno inteligenco, bi to lahko povečalo njihovo nagnjenost k želji, da bi bila etična umetna inteligenca norma. Enako bi lahko rekli za razvijalce AI in podjetja, povezana s sistemi AI. Če bi se bolj zavedali, kaj počnejo, bi morda bolj sprejeli etiko umetne inteligence.

Del logike, kot je bilo že navedeno, je, da zavedanje samega sebe pomeni težnjo k temu, da smo etično boljša oseba in tudi izogibanje temu, da bi bili etično zanič oseba. Če lahko obdržimo to predpostavko, to pomeni, da bodo razvijalci umetne inteligence, ki so bolj nagnjeni k samozavedanju, torej nagnjeni k etičnemu vedenju in bodo zato nagnjeni k izdelavi etično zdrave umetne inteligence.

Je to most predaleč zate?

Nekateri bi rekli, da je posrednosti malo. Pretirano verigo povezav med samozavedanjem, etično krepostjo in uporabo etičnih predpisov pri umetni inteligenci je morda težko pogoltniti. Protiargument je, da poskusiti ne bi moglo škoditi.

Skeptiki bi rekli, da se razvijalec umetne inteligence morda zaveda samega sebe in je morda bolj etično naravnan, vendar ni nujno, da bodo skočili k uporabi tega miselnega taborišča za običaje etične umetne inteligence. Odgovor na ta pomislek je, da če lahko objavimo in populariziramo zadeve etičnega umetne inteligence, bo sicer navidezno šibka povezava postala bolj očitna, pričakovana in morda postala standardni način dela, ko gre za izdelavo umetne inteligence.

Zdaj bom tej sagi dodal preobrat. Zaradi zasuka se vam lahko zvrti v glavi. Prosim, poskrbite, da boste dobro sedeli in pripravljeni na to, kar vam bom povedal.

Nekateri poudarjajo, da bi morali etično umetno inteligenco vgraditi neposredno v samo umetno inteligenco.

Morda vas bo ta izjava zmešala. Razpakirajmo ga.

Programer lahko ustvari sistem umetne inteligence in to stori s svojim programskim samozavedanjem, da poskuša preprečiti, da bi umetna inteligenca utelešala pristranskosti in neenakosti. Namesto da bi se samo opustil pri programiranju, razvijalec opazuje čez lastno ramo in se sprašuje, ali bo pristop, ki se ga loteva, povzročil zahtevano odsotnost škodljivih elementov v AI.

Odlično, imamo razvijalca umetne inteligence, za katerega se zdi, da se dovolj zaveda samega sebe, si prizadeva sprejeti etično vedenje in je opazil vključitev etičnih zapovedi pri izdelavi svojega sistema umetne inteligence.

Zadenite zmago za Ethical AI!

Vse lepo in prav, čeprav je tukaj nekaj, kar se lahko zgodi kasneje. AI je nameščen in dan v vsakodnevno uporabo. Del umetne inteligence je vključeval komponento za možnost "učenja" na letenju. To pomeni, da se AI lahko prilagodi glede na nove podatke in druge vidike prvotnega programiranja. Na kratko, to ne pomeni, da je umetna inteligenca čuteča. Nimamo čutečega AI. Ignorirajte tiste neumne naslove, ki pravijo, da to počnemo. Nihče ne more reči, ali bomo imeli čutečo umetno inteligenco, in tudi nihče ne more dovolj napovedati, kdaj se bo to zgodilo.

Če se vrnemo k naši zgodbi, je bila umetna inteligenca namenoma zasnovana tako, da se je izboljšala med izvajanjem. Precej priročna ideja. Namesto da bi morali programerji nenehno izboljševati, dovolijo programu AI, da to naredi sam (joj, ali si s tem ostal brez službe?).

V času, ko se umetna inteligenca palec za palcem prilagaja, se izkaže, da se različne umazane neenakosti in pristranskosti prikradejo v sistem umetne inteligence z lastnimi dejanji spreminjanja. Medtem ko je programer prvotno zadržal te zanikrne vidike, zdaj oblikujejo zaradi sprotnega prilagajanja AI. Na žalost se to lahko zgodi na tako subtilen način v zakulisju, da nihče ne pomisli. Tisti, ki so prej morda prižgali zeleno luč AI po začetnem izčrpnem testiranju, se zdaj slepo ne zavedajo, da je AI šel po gnili poti AI za slabo.

Eden od načinov za preprečitev ali vsaj ulov tega nezaželenega pojava bi bila vgradnja nekakšnega etičnega dvojnega preverjanja umetne inteligence v AI. Komponenta znotraj umetne inteligence je programirana za opazovanje obnašanja umetne inteligence in zaznavanje, ali se začenja pojavljati neetično ADM. Če je tako, lahko komponenta pošlje opozorilo razvijalcem umetne inteligence ali pa podjetju, ki upravlja sistem umetne inteligence.

Naprednejša različica te komponente bo morda poskušala popraviti AI. To bi bila prilagoditev prilagoditev, ki bi neetične nastale vidike spremenila nazaj v ustrezne etične parametre. Lahko si predstavljate, da je ta vrsta programiranja težavna. Obstaja možnost, da zaide s poti in se morda neetično spremeni v zelo neetično. Obstaja tudi možnost lažno pozitivnega, ki sproži komponento v akcijo in morda ustrezno zamoči stvari.

Kakor koli že, ne da bi se obremenjevali s tem, kako bi ta dvojni preglednik deloval, bomo o tem podali drzno izjavo. Lahko bi predlagali, da naj bi se AI na nek omejen način samozavedal.

Joj, to so za mnoge bojne besede.

Prevladujoče prepričanje skoraj vseh je, da se današnja umetna inteligenca ne zaveda samega sebe. Pika in pika. Dokler ne dosežemo čutečega umetne inteligence, za katero ne vemo, ali ali kdaj se bo to zgodilo, ne obstaja nobena vrsta umetne inteligence, ki bi se zavedala samega sebe. Ne vsaj v smislu h človeku usmerjenega samozavedanja. Niti ne namigujte, da se to lahko zgodi.

Vsekakor se strinjam, da moramo biti previdni pri antropomorfizaciji AI. Več o tej skrbi bom povedal čez trenutek.

Medtem, če ste zavoljo razprave pripravljeni uporabiti postopno »samozavedanje« na ohlapen način, verjamem, da zlahka vidite, zakaj bi lahko rekli, da se AI drži splošnega pojma samo- zavedanje. Imamo del umetne inteligence, ki nadzoruje preostali del umetne inteligence in spremlja, kaj počne preostali del umetne inteligence. Ko preostali del umetne inteligence začne pretiravati, skuša nadzorni del to odkriti. Poleg tega lahko nadzorni del umetne inteligence ali dvojno preverjanje preostali del umetne inteligence usmeri nazaj na ustrezne steze.

Ali se to ne zdi nekoliko podobno dejanju gledanja teh mačjih videoposnetkov in samozavedanja, da to počnete?

Na njem je znan prstan.

To lahko še bolj razširimo. Komponenta dvojnega preverjanja umetne inteligence ni samo programirana za opazovanje vedenja ostale umetne inteligence, ampak beleži tudi vedenje tistih, ki uporabljajo umetno inteligenco. Kakšni so uporabniki pri uporabi AI? Recimo, da nekateri uporabniki izražajo ogorčenje, ker se zdi, da jih AI diskriminira. Dvojni preverjevalnik umetne inteligence bi to morda lahko ugotovil in uporabil kot še eno rdečo zastavo, da preostali del umetne inteligence zaide.

To pripelje do kategorizacije notranjega samozavedanja in zunanjega samozavedanja.

Dvojni preverjevalnik AI skenira znotraj in zunaj, da bi ugotovil, ali je preostali del AI zašel v problematična morja. Zaznavanje bo dvignilo zastavico ali povzročilo samopopravek.

Dodajmo še eno nekoliko osupljivo razširitev. Izdelamo še eno dvojno preverjanje AI, ki je namenjeno dvojnemu preverjanju jedrnega dvojnega preverjalnika AI. Zakaj tako? No, predpostavimo, da dvojno preverjanje z umetno inteligenco omahuje ali ne opravlja svojega dela. Dvojni preverjevalnik z umetno inteligenco bi skušal odkriti to napako in ustrezno ukrepati. Dobrodošli v rekurzivni naravi samozavedanja, bi lahko nekateri ponosno izjavili, kot je prikazano v računalniškem sistemu AI.

Za tiste med vami, ki ste glede tega že na robu svojega sedeža, je zadnja pripomba zaenkrat ta, da bi lahko poskušali predlagati, da če sisteme AI naredite »samozavestne«, bodo potem potencialno težili k etičnemu vedenju. Ali to počnejo zavestno? Odločno, ne. Ali to počnejo na računski osnovi? Da, čeprav moramo biti jasni, da ni enakega kalibra kot človeško vedenje.

Če vam je neprijetno, da je pojem samozavedanja napačno izkrivljen, da bi se prilegal v računalniško shemo, so vaši pomisleki glede tega dobro opaženi. Drugo odprto vprašanje je, ali bi morali ustaviti nenehna prizadevanja AI, ki izkoriščajo to idejo. Lahko bi prepričljivo trdili, da se vsaj zdi, da nas usmerja k boljšemu rezultatu tega, kar bo umetna inteligenca verjetno naredila. Čeprav se to dogaja, moramo imeti široko odprte oči.

Verjetno bomo morali videti, kako se bo vse skupaj odvijalo. Vrnite se k temu čez pet let, deset let in petdeset let in preverite, ali se je vaše razmišljanje o sporni zadevi spremenilo.

Zavedam se, da je bilo to nekoliko omamno preučevanje teme in morda boste hrepeneli po nekaj vsakodnevnih primerih. Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Kot strokovnjaka za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, kaj pojasni glede tega, da ima umetna inteligenca videz »samozavedanja«, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, ki jih AI vozi povsem sam in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Na ravni 5 še ni pravega samovozečega avtomobila, za katerega še ne vemo, ali bo to mogoče doseči in koliko časa bo trajalo, da bi prišli do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in umetna inteligenca imajo tako imenovano samozavedanje

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Verjamem, da to zagotavlja dovolj litanij opozoril, na podlagi katerih bom povedal.

Zdaj smo pripravljeni, da se globoko poglobimo v samovozeče avtomobile in etična vprašanja umetne inteligence, ki vključujejo vznemirljivo idejo, da ima umetna inteligenca nekakšno samozavedanje, če želite.

Uporabimo lahko preprost primer. Samovozeči avto, ki temelji na umetni inteligenci, je v teku na ulicah vaše soseske in zdi se, da vozi varno. Sprva ste vsakič, ko ste uspeli ujeti pogled na samovozeči avto, posvetili posebno pozornost. Avtonomno vozilo je izstopalo s svojo stojalo elektronskih senzorjev, ki so vključevali video kamere, radarske enote, naprave LIDAR in podobno. Po mnogih tednih samovozečega avtomobila, ki kroži po vaši skupnosti, ga zdaj komaj opazite. Kar se vas tiče, je to zgolj še en avto na že tako prometnih javnih cestah.

Da ne bi mislili, da je nemogoče ali neverjetno spoznati samovozeče avtomobile, sem pogosto pisal o tem, kako so se kraji, ki so v okviru preizkusov samovozečih avtomobilov, postopoma navadili videti polepšana vozila, glej mojo analizo na tukaj povezava. Številni domačini so se sčasoma preusmerili iz zanosenega zuljenja z razpršenimi usti in zdaj oddajali ekspanzivno zehanje dolgčasa, da bi bili priča tem vijugastim samovozečim avtomobilom.

Verjetno je zdaj glavni razlog, da bi lahko opazili avtonomna vozila, posledica razdraženosti in razdraženosti. Sistemi za vožnjo z umetno inteligenco, ki so običajni v knjigi, zagotavljajo, da avtomobili spoštujejo vse omejitve hitrosti in cestna pravila. Za naporne človeške voznike v njihovih tradicionalnih avtomobilih, ki jih poganja človek, se občasno razjezite, ko obtičate za samovozečimi avtomobili na osnovi umetne inteligence, ki spoštujejo zakone.

To je nekaj, na kar se bomo morda morali vsi navaditi, upravičeno ali ne.

Nazaj k naši zgodbi. Recimo, da se nekega dne samovozeči avtomobil v vašem kraju ali mestu približuje znaku Stop in ni videti, da upočasnjuje. Nebesa, zdi se, da bo sistem vožnje z umetno inteligenco samovozečemu avtomobilu plul takoj mimo znaka Stop. Predstavljajte si, da bi bil pešec ali kolesar nekje v bližini in bi bil ujet nepripravljen, da se samovozeči avto ne bi pravilno ustavil. Sramotno. Nevarno!

In nezakonito.

Oglejmo si zdaj komponento umetne inteligence v sistemu vožnje z umetno inteligenco, ki deluje kot slog samozavedajočega dvojnega preverjanja.

Vzeli si bomo trenutek in se poglobili v podrobnosti o tem, kaj se dogaja znotraj voznega sistema AI. Izkazalo se je, da so video kamere, nameščene na avtonomnem vozilu, zaznale nekaj, kar se je morda zdelo znak Stop, čeprav v tem primeru zaraščeno drevo obilno zakriva znak Stop. Sistem strojnega in globokega učenja, ki je bil prvotno usposobljen za znake Stop, je bil zasnovan na vzorcih v glavnem polnih znakov Stop, na splošno neomejenih. Po računalniškem pregledu videoposnetkov je bila dodeljena majhna verjetnost, da je na tem določenem mestu obstajal znak Stop (kot dodaten zaplet in dodatna razlaga je bil to na novo objavljen znak Stop, ki se ni pojavil na predhodno pripravljenih digitalnih zemljevidih, ki jih je Sistem vožnje z umetno inteligenco je temeljil na).

Skratka, sistem vožnje z umetno inteligenco je računalniško odločen, da bo nadaljeval naprej, kot da znaka Stop bodisi ne obstaja ali pa je morda znak druge vrste, ki je morda podoben znaku Stop (to se lahko zgodi in se zgodi z določeno pogostostjo).

Toda na srečo je samozavestni dvojni preverjevalnik AI spremljal dejavnosti vozniškega sistema AI. Po računalniškem pregledu podatkov in oceni preostalega umetne inteligence se je ta komponenta odločila preglasiti običajni potek in namesto tega ukazala voznemu sistemu umetne inteligence, da se ustrezno ustavi.

Nihče ni bil poškodovan, prav tako ni prišlo do protipravnega dejanja.

Lahko bi rekli, da je AI samozavedajoči dvojni preverjevalnik deloval, kot da je vgrajen pravni agent, ki poskuša zagotoviti, da sistem vožnje AI spoštuje zakon (v tem primeru znak Stop). Seveda je bila ključna tudi varnost.

Upajmo, da ta primer prikazuje, kako bi lahko deloval zamišljen dvopreverjevalnik, ki se zaveda samega sebe.

Nato lahko na kratko razmislimo o pomembnejšem primeru etičnega umetne inteligence, ki ponazarja, kako bi lahko dvojno preverjanje, ki se zaveda samega sebe, zagotovilo vgrajeno funkcionalnost, usmerjeno v etiko umetne inteligence.

Prvič, kot ozadje, eden od pomislekov, ki so bili izraženi glede prihoda samovozečih avtomobilov na osnovi umetne inteligence, je, da bi se lahko na koncu uporabili na nekoliko nehoten diskriminatoren način. Evo kako. Predpostavimo, da so ti samovozeči avtomobili nastavljeni tako, da poskušajo povečati svoj potencial prihodkov, kar je nedvomno smiselno za tiste, ki upravljajo s floto samovozečih avtomobilov, ki so na voljo za deljenje prevozov. Lastnik voznega parka bi želel imeti donosno poslovanje.

Lahko se zgodi, da v določenem kraju ali mestu gostujoči samovozeči avtomobili postopoma začnejo služiti nekaterim delom skupnosti in ne drugim območjem. To počnejo z namenom ustvarjanja denarja, saj revnejša območja morda ne prinašajo toliko prihodkov kot bogatejši deli regije. To ni eksplicitna težnja, da bi služili nekaterim področjem in ne služili drugim. Namesto tega organsko pride do tega, da umetna inteligenca samovozečih avtomobilov računalniško "ugotovi", da je mogoče zaslužiti več denarja, če se osredotočimo na geografsko bolje plačana območja. O tej družbeni etični skrbi sem razpravljal v svoji kolumni, na primer na povezava tukaj.

Predpostavimo, da smo v pogonske sisteme z umetno inteligenco dodali dvojno preverjanje, ki se zaveda samega sebe. Čez nekaj časa komponenta umetne inteligence računalniško opazi vzorec, kje se gibljejo samovozeči avtomobili. Predvsem na nekaterih področjih, na drugih pa ne. Na podlagi tega, da je bil kodiran z nekaterimi etičnimi zapovedmi AI, AI samozavedajoči dvojni preverjalec začne voditi samovozeče avtomobile v druge dele mesta, ki so bili sicer zanemarjeni.

To ponazarja idejo o samozavedanju umetne inteligence in to v kombinaciji z elementom etične umetne inteligence.

Še en tak primer bi lahko ponudil vpogled, da je ta premislek o etični umetni inteligenci lahko tudi precej trezen in resen vpliv na življenje ali smrt.

Razmislite o novici o nedavni prometni nesreči. Človeški voznik naj bi prihajal do prometnega križišča in imel zeleno luč, da je nadaljeval naravnost. Drugi voznik je pripeljal mimo rdeče luči in zapeljal v križišče, ko tega ne bi smel. Voznik z zeleno lučjo je v zadnjem trenutku ugotovil, da se bo ta drugi avto močno zaletel v njegov avto.

Po besedah ​​tega ogroženega voznika je premišljeno računal, da ga bo zbil drugi avto ali pa bi lahko zavil, da bi se poskusil izogniti vsiljivcu. Težava pri zavijanju je bila, da so bili v bližini pešci, ki bi bili ogroženi.

Katero izbiro bi izbrali?

Lahko se pripravite na udarec in upate, da vas škoda ne bo pohabila ali ubila. Po drugi strani pa lahko radikalno zavijete, vendar resno ogrozite in morda poškodujete ali ubijete bližnje pešce. To je težak problem, ki vključuje moralno presojo in je v celoti prežet z etičnimi (in pravnimi) posledicami.

Obstaja splošna etična dilema, ki pokriva to vrsto dileme, slavno ali morda zloglasno imenovana Problem vozička, glejte mojo obširno pokritost na tukaj povezava. Izkazalo se je, da gre za etično spodbuden miselni eksperiment, ki sega v zgodnja leta 1900. Kot taka je tema prisotna že kar nekaj časa in v zadnjem času je postala splošno povezana s prihodom umetne inteligence in samovozečih avtomobilov.

Zamenjajte človeškega voznika z voznim sistemom z umetno inteligenco, vgrajenim v samovozeči avto.

Predstavljajte si torej, da samovozeči avtomobil z umetno inteligenco zapelje v križišče in senzorji avtonomnega vozila nenadoma zaznajo avto, ki ga vozi človek, ki nevarno prihaja neposredno skozi rdečo luč in meri na avto brez voznika. Predpostavimo, da ima samovozeči avto nekaj potnikov v vozilu.

Kaj želite, da AI naredi?

Ali bi se sistem vožnje z umetno inteligenco odločil, da nadaljuje naprej in se zarine vanj (verjetno poškoduje ali morda ubije potnike v vozilu), ali želite, da sistem vožnje z umetno inteligenco izkoristi priložnost in zavije stran, čeprav zavijanje prevzame avtonomno vozilo nevarno proti bližnjim pešcem in jih lahko poškoduje ali ubije.

Številni izdelovalci umetne inteligence samovozečih avtomobilov se s temi etičnimi težavami z umetno inteligenco ukvarjajo z glavo v pesek. Na splošno bi umetna inteligenca, kot je trenutno programirana, preprosto plula naprej in jo nasilno zabil drugi avto. AI ni bil programiran za iskanje kakršnih koli drugih manevrov izogibanja.

Večkrat sem napovedal, da se bo to stališče proizvajalcev samovozečih avtomobilov z umetno inteligenco, ki ne vidijo, ne slišijo, sčasoma ugriznilo (moja analiza je na povezava tukaj). Pričakujete lahko tožbe v zvezi s takimi prometnimi nesrečami, ki bodo poskušale ugotoviti, za kaj je bila umetna inteligenca programirana. Ali je bilo podjetje ali razvijalci umetne inteligence ali upravljavec voznega parka, ki je razvil in uporabil umetno inteligenco, malomaren ali odgovoren za to, kar je umetna inteligenca naredila ali česa ni? Prav tako lahko pričakujete, da se bo, ko pride do takšnih primerov, v javnosti sprožil etični ozaveščeni AI.

V to etično dilemo umetne inteligence stopi naš hvaljeni samozavedajoči se dvojni preverjevalnik umetne inteligence, ki je etično usmerjen. Morda bi ta posebna komponenta umetne inteligence lahko delovala v takih okoliščinah. Del spremlja preostali vozni sistem AI in status samovozečega avtomobila. Ko pride do grozljivega trenutka, kot je ta, komponenta umetne inteligence služi kot rešitev za težave z vozičkom in ponudi, kaj naj naredi vozni sistem umetne inteligence.

Zagotavljam vam, da ni enostavno kodirati.

zaključek

Z vami delim zaenkrat zadnjo misel na to temo.

Verjetno se vam bo zdelo zanimivo.

Ali veste za zrcalni test?

To je precej dobro znano v študiji samozavedanja. Druga imena za to zadevo so test samoprepoznavanja ogledala, test rdeče lise, test rdečila in sorodni izrazi. Tehnika in pristop sta bila prvotno oblikovana v zgodnjih sedemdesetih letih prejšnjega stoletja za ocenjevanje samozavedanja živali. Med živalmi, ki naj bi uspešno prestale test, so opice, nekatere vrste slonov, delfini, srake in nekatere druge. Živali, ki so bile testirane in domnevno niso prestale testa, vključujejo velike pande, morske leve itd.

Tukaj je dogovor.

Ali se žival, ko se vidi v ogledalu, zaveda, da je prikazana podoba njih samih, ali misli, da je druga žival?

Verjetno žival vizualno prepozna svojo lastno vrsto, ko je videla druge svoje vrste, in bi zato lahko mislila, da je žival, prikazana v ogledalu, sorodnica ali morda bojevit tekmec (še posebej, če žival zareži na zrcalno sliko, kar v Zdi se, da turn renči nazaj proti njim). Morda ste že videli, da vaša hišna mačka ali ljubljeni pes počne enako, ko se prvič zagleda v hišnem ogledalu.

Vsekakor bi domnevali, da se divja žival še nikoli ni videla. No, to ni nujno res, saj se je morda žival zagledala v mirnem vodnem bazenu ali prek sijoče skalne formacije. Toda te možnosti veljajo za manj verjetne.

V redu, želimo nekako oceniti, ali je žival sposobna ugotoviti, da je v resnici žival prikazana v ogledalu. Razmislite o tem na videz preprostem dejanju. Človek že v mladosti ugotovi, da obstaja in da svoj obstoj dokazuje tako, da se vidi v ogledalu. Zavedajo se samega sebe. Teoretično se morda ne boste zavedali, da ste vi, dokler se ne vidite v ogledalu.

Mogoče se živali ne morejo kognitivno zavedati samega sebe na enak način. Lahko se zgodi, da se žival vidi v ogledalu in vedno verjame, da je neka druga žival. Ne glede na to, kolikokrat se vidi, bi še vedno mislil, da je to drugačna žival od njega.

Trik del tega se začne igrati. Na živali naredimo oznako. Ta znak mora biti viden le, ko se žival vidi v ogledalu. Če se žival lahko zvije ali obrne in vidi znamenje na sebi (neposredno), to pokvari poskus. Poleg tega žival znamenja ne more čutiti, vohati ali kako drugače zaznati. Še enkrat, če bi to storili, bi to uničilo poskus. Žival ne more vedeti, da smo ji dali znak, saj bi to zveri dalo slutiti, da je nekaj tam.

Stvari želimo zožiti tako, da bi bil edini možni razlog, da je znamenje odkrito, če se pogledamo v ogledalo.

Aha, test je pripravljen. Žival se postavi pred ogledalo ali se sprehaja do njega. Če bi se žival nato poskušala dotakniti ali kopati po znamenju, bi razumno sklepali, da bi se to zgodilo le, če bi žival ugotovila, da je znamenje na sebi. Zelo malo živalskih vrst je uspelo uspešno prestati ta test.

O testu je kopica kritik. Če je v bližini človeški preizkuševalec, lahko odda stvari tako, da strmi v znamenje, kar lahko povzroči, da se žival krtači ali otipa. Druga možnost je, da žival še vedno verjame, da je v ogledalu prikazana druga žival, vendar je iste vrste, in se tako sprašuje, ali ima tudi ona znamenje, kot je na drugi živali.

Kar naprej gre.

Prepričan sem, da ste veseli tega in da boste odslej razumeli, zakaj je na živali pika ali kakšna nenavadna oznaka, ki je sicer ne bi imela. Kdo ve, morda je pred kratkim končal poskus ogledala. Čestitajte živali, varno, ker je bila velikodušna udeleženka.

Kaj ima to opraviti s samovozečimi avtomobili, ki temeljijo na AI?

Ta del vam bo všeč.

Po dolgi avtocesti se pelje samovozeči avto. Vozni sistem AI uporablja senzorje za zaznavanje drugega prometa. To je dvopasovna avtocesta, po kateri promet poteka v smeri severa po enem pasu in proti jugu po drugem pasu. Občasno se bodo avtomobili in tovornjaki poskušali prebiti drug drugega, pri čemer bodo zapeljali na nasprotni vozni pas in nato skočili nazaj na svoj pravi vozni pas.

To ste videli, to ste nedvomno naredili.

Stavim, da se je naslednji vidik zgodil tudi vam. Pred samovozečim avtomobilom je eden tistih velikih tovornjakov cistern. Izdelan je iz sijoče kovine. Zglajen in čist kot piščalka. Ko stopite za tak tovornjak, lahko skozi zadnji del cisterne vidite zrcalno sliko svojega avtomobila. Če ste to videli, veste, kako očarljivo je lahko. Tukaj ste, vi in ​​vaš avto, ki se odsevata v zrcalnem odsevu zadnjega dela tovornjaka cisterne.

Usedite se za nori preobrat.

Za tovornjakom cisterno pride samovozeči avto. Kamere zaznavajo sliko avtomobila, ki je prikazana v zrcalnem odsevu. Vau, ocenjuje AI, je to avto? Ali prihaja do samovozečega avtomobila? Ko se samovozeči avtomobil vedno bolj približuje tovornjaku cisterni, se zdi, da se avtomobil vedno bolj približuje.

Joj, umetna inteligenca bi lahko računalniško izračunala, da je to nevarna situacija in bi se morala temu noremu prevarantskemu vozilu izogniti. Vidite, AI se ni prepoznal v ogledalu. Padel je na testu ogledala.

Kaj storiti? Morda umetna inteligenca, ki se zaveda samega sebe, vskoči v zadevo in prepriča preostali pogonski sistem umetne inteligence, da je to le neškodljiv odsev. Nevarnost preprečena. Svet je rešen. Uspešno opravljen test AI Mirror!

Z navihanim zaključkom bi lahko celo nakazali, da je včasih AI pametnejša ali vsaj bolj samozavestna od povprečnega medveda (čeprav se medvedom priznava, da se običajno dobro znajdejo v zrcalnem testu, saj so pogosto dobili navajeni na njihov odsev v vodnih bazenih).

Popravek, morda se umetna inteligenca lahko bolj zaveda kot velike pande in morski levi, vendar živalim tega ne povejte, saj bi jih morda zamikalo, da bi razbili ali udarili sisteme umetne inteligence. Tega si ne želimo, kajne?

Vir: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/