Etika umetne inteligence in zakon o umetni inteligenci pojasnjujeta, kaj je v resnici umetna inteligenca vredna zaupanja

Zaupanje je vse, tako pravijo.

Znani filozof Lao Ce je rekel, da tistim, ki ne zaupajo dovolj, ne bodo zaupali. Ernest Hemingway, cenjeni romanopisec, je izjavil, da je najboljši način, da ugotovite, ali lahko nekomu zaupate, tako, da mu zaupate.

Medtem se zdi, da je zaupanje dragoceno in krhko. Zaupanje, ki ga imamo, se lahko sesuje kot hiša iz kart ali nenadoma poči kot počen balon.

Starogrški tragik Sofokles je trdil, da zaupanje umre, nezaupanje pa vzcveti. Francoski filozof in matematik Descartes je trdil, da je preudarno nikoli povsem zaupati tistim, ki so nas vsaj enkrat prevarali. Izredni milijarder, poslovni vlagatelj Warren Buffett je opozoril, da je potrebnih dvajset let, da si ustvarimo zaupanja vreden ugled, in pet minut, da ga uničimo.

Morda boste presenečeni, ko veste, da so vsi ti različni pogledi in provokativna mnenja o zaupanju ključnega pomena za pojav umetne inteligence (AI).

Da, obstaja nekaj, kar se močno omenja kot zaupanja vreden AI ki v teh dneh vedno znova pritegne veliko pozornosti, vključno z mavričnimi kritikami s področja umetne inteligence in tudi hudimi izbruhi tistih zunaj področja umetne inteligence. Splošni koncept vključuje, ali bo družba pripravljena zaupati podobnim sistemom umetne inteligence ali ne.

Verjetno, če družba noče ali ne more zaupati umetni inteligenci, obstaja verjetnost, da sistemi umetne inteligence ne bodo dosegli oprijema. Umetna inteligenca, kot jo trenutno poznamo, bo potisnjena na stran in bo samo zbirala prah. Šokantno, umetna inteligenca bi lahko končala na smetiščih, zgodovinsko gledano pa le kot obupno preizkušen, a neverjetno neuspešen visokotehnološki eksperiment. Vsakršna prizadevanja za oživitev umetne inteligence bi se lahko soočila z izjemno težko bitko in bi bila ustavljena z vsemi vrstami ugovorov in odkritih protestov. Domnevno zaradi pomanjkanja zaupanja v AI.

Kaj naj bo, naj zaupamo umetni inteligenci ali ne?

V bistvu, ali bomo resnično imeli zaupanja vredno AI?

To so nekdanja in nerešena vprašanja. Razpakirajmo ga.

Etika umetne inteligence in boj za zaupanja vredno umetno inteligenco

Mnogi znotraj umetne inteligence verjamejo, da lahko razvijalci sistemov umetne inteligence pridobijo zaupanje v umetno inteligenco z ustrezno zasnovo umetne inteligence, ki je vredna zaupanja. Bistvo je, da ne morete upati, da boste pridobili zaupanje, če umetna inteligenca že na začetku ni videti vredna zaupanja. Z izdelavo sistemov umetne inteligence na način, ki se dojema kot vreden zaupanja, obstaja velika verjetnost, da bodo ljudje sprejeli umetno inteligenco in uporabili umetno inteligenco.

Eden od pomislekov, ki že vznemirja ta zanesljivi premislek o umetni inteligenci, je, da smo morda že v pomanjkanje zaupanja javnosti ko gre za AI. Lahko bi rekli, da je umetna inteligenca, ki smo jo že videli, izkopala luknjo in razmetavala zaupanje v ogromnih količinah. Tako se bo moral AI osupljivo povzpeti iz primanjkljaja, namesto da bi začel na neki zadostni podlagi zaupanja, in se oprijeti za vsako želeno unčo dodatnega zaupanja, ki bo potrebno, da prepriča ljudi, da je AI dejansko vreden zaupanja.

V ta izziv spadata Etika umetne inteligence in Zakon o umetni inteligenci.

Etika umetne inteligence in pravo umetne inteligence se zelo trudita ugotoviti, kaj bo potrebno, da bo umetna inteligenca postala vredna zaupanja. Nekateri menijo, da obstaja formula ali strogi zakoni, ki bodo umetno inteligenco popeljali v zaupanja vredna nebesa. Drugi navajajo, da bo za pridobitev hvaljenega zaupanja družbe potrebno trdo delo ter dosledno in nepopustljivo spoštovanje načel etike in prava umetne inteligence.

Sodobna enigma o zaupanju v umetno inteligenco sama po sebi ni posebej nova.

Z lahkoto se lahko vrnete v pozna devetdeseta leta prejšnjega stoletja in zasledite pojav iskane želje po »zaupanja vrednem računalniku« iz tistih dni. To je bilo obsežno prizadevanje tehnološke industrije, da bi ugotovili, ali je mogoče vse povedano računalnike izdelati na način, ki bi ga družba razumela kot vrednega zaupanja.

Ključna vprašanja so sestavljala:

  • Ali bi lahko naredili računalniško strojno opremo tako, da bi bila vredna zaupanja?
  • Ali je programsko opremo mogoče izdelati tako, da je vredna zaupanja?
  • Ali bi lahko postavili globalno omrežne računalnike, ki bi bili vredni zaupanja?
  • In tako naprej.

Prevladujoče mnenje takrat in še danes je, da zaupanja vredno računalništvo ostaja nekakšen sveti gral, ki žal še vedno ni povsem v našem dosegu (kot je navedeno v dokumentu z naslovom »Zaupanja vredna umetna inteligenca« v Sporočila ACM). Lahko bi prepričljivo trdili, da je umetna inteligenca še en sestavni del ovoja za zanesljivost računalništva, a zaradi umetne inteligence je iskanje zaupanja še bolj zahtevno in negotovo. AI je postal potencialni spojler v boju za doseganje zaupanja vrednega računalništva. Morda najšibkejši člen v verigi, tako rekoč.

Oglejmo si na hitro, zakaj nas je umetna inteligenca spravila v negotovost, ker smo premalo zaupanja vredni. Poleg tega bomo raziskali načela etike umetne inteligence, za katera upamo, da bodo pomagala pri podpori že napol podvodnega zaznanega zaupanja (ali brbotajočega nezaupanja) današnje umetne inteligence. Za moje tekoče in obsežno pokrivanje AI Ethics glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

En poseben segment ali del etike umetne inteligence, ki je bil deležen velike medijske pozornosti, je umetna inteligenca, ki kaže nenaklonjene pristranskosti in neenakosti. Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Čez trenutek bom z vami delil nekaj splošnih načel, na katerih temelji etika umetne inteligence. Tu in tam je veliko tovrstnih seznamov. Lahko bi rekli, da še ni enotnega seznama univerzalne privlačnosti in soglasja. To je žalostna novica. Dobra novica je, da so vsaj na voljo seznami etike AI in so ponavadi precej podobni. Vse skupaj nakazuje, da z nekakšno obliko utemeljene konvergence iščemo pot do splošne skupnosti tega, iz česar je sestavljena etika umetne inteligence.

Najprej na kratko pokrijmo nekaj splošnih etičnih predpisov umetne inteligence, da ponazorimo, kaj bi moralo biti ključnega pomena za vsakogar, ki ustvarja, uporablja ali uporablja AI.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da se "samo koderji" ali tisti, ki programirajo umetno inteligenco, upoštevajo pojme etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

Prepričajmo se tudi, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v korenito drugačno smer. Čuteča umetna inteligenca naj bi bila človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli super inteligentno AI, je možno, da bi bila taka AI na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne AI kot možnosti glej pokritost tukaj).

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Povežimo to z vprašanjem o zaupanja vrednem AI

Zagotovo se ne zdi, da bi bili pripravljeni zaupati AI, ki prikazuje neugodne pristranskosti in diskriminatorna dejanja. Naše prepričanje bi v tem primeru bilo, da taka umetna inteligenca očitno ni vredna zaupanja, zato bi se nagnili k temu, da AI aktivno ne bi zaupali. Ne da bi pretiraval z antropomorfno primerjavo (več o antropomorfizaciji umetne inteligence bom povedal čez trenutek), bi bil človek, ki je pokazal neugodne pristranskosti, prav tako predmet ocene, da ni posebej vreden zaupanja.

Kopanje v zaupanje in zanesljivost

Mogoče bi morali pogledati, kaj mislimo, ko trdimo, da nekomu ali nečemu zaupamo ali ne. Najprej razmislite o več vsakodnevnih slovarskih definicijah zaupanja.

Primeri, kaj definicijsko pomeni zaupanje, so:

  • Zagotovljeno zanašanje na značaj, sposobnost, moč ali resnico nekoga ali nečesa (Spletni slovar Merriam-Webster).
  • Zanašanje na integriteto, moč, sposobnost, poroštvo itd. osebe ali stvari (Dictionary.com)
  • Trdno prepričanje v zanesljivost, resnico, sposobnost ali moč nekoga ali nečesa (Oxford Languages ​​online dictionary).

Rad bi poudaril, da se vse te definicije nanašajo na "nekoga" in se prav tako nanašajo na "nekaj" kot na potencialno zaupanja vredno. To je opazno, saj nekateri morda vztrajajo, da zaupamo samo ljudem in da je dejanje zaupanja rezervirano izključno za človeštvo kot našo tarčo zaupanja. Ne tako. Svojemu kuhinjskemu opekaču lahko zaupate. Če se zdi, da zanesljivo speče vaš toast in dela rutinsko, da to počne, lahko zagotovo imate videz zaupanja o tem, ali je opekač v resnici vreden zaupanja.

V istem smislu razmišljanja je AI lahko tudi predmet našega stališča zaupanja. Možnosti so, da bo zaupanje, povezano z umetno inteligenco, veliko bolj zapleteno kot na primer navaden toaster. Toaster običajno lahko opravi le nekaj dejanj. Sistem umetne inteligence bo verjetno veliko bolj zapleten in deluje manj pregledno. Naša sposobnost ocenjevanja in ugotavljanja zanesljivosti umetne inteligence bo zagotovo veliko težja in prinaša različne izzive.

Poleg tega, da je tipičen sistem umetne inteligence le bolj zapleten, naj bi bil tudi nedeterminističen in potencialno samoregulativen ali samoprilagodljiv. Ta pojem lahko na kratko raziščemo.

Deterministični stroj ponavadi dela iste stvari znova in znova, predvidljivo in z razločnim vzorcem delovanja. Lahko bi rekli, da običajni opekač kruha popeče približno na enak način in ima nadzor nad pečenjem, ki umiri pečenje, pri čemer je oseba, ki uporablja opekač, na splošno vse predvidljiva. Nasprotno pa so zapleteni sistemi umetne inteligence pogosto zasnovani tako, da niso deterministični, kar pomeni, da lahko delajo precej drugačne stvari, kot bi sicer pričakovali. To se lahko delno dodatno poveča, če je umetna inteligenca napisana tako, da se samoprilagodi, vidik, ki lahko ugodno omogoči izboljšavo umetne inteligence v primeru ML/DL, čeprav lahko tudi moteče povzroči, da umetna inteligenca omahne ali vstopi v rang slabosti AI. Morda ne veste, kaj vas je doletelo, tako rekoč, saj so vas dejanja umetne inteligence ujela povsem nepripravljene.

Kaj lahko storimo, da poskusimo AI približati zanesljivosti?

Eden od pristopov je sestavljen iz poskušanja zagotoviti, da tisti, ki gradijo in izvajajo umetno inteligenco, upoštevajo nabor etičnih predpisov umetne inteligence. Kot so omenili ti raziskovalci umetne inteligence: »Zaupanje je odnos, da se bo agent obnašal po pričakovanjih in da se bo nanj mogoče zanesti, da bo dosegel svoj cilj. Zaupanje se poruši po napaki ali nesporazumu med agentom in posameznikom, ki zaupa. Psihološko stanje zaupanja v umetno inteligenco je nastajajoča lastnost kompleksnega sistema, ki običajno vključuje številne cikle načrtovanja, usposabljanja, uvajanja, merjenja uspešnosti, regulacije, preoblikovanja in ponovnega usposabljanja« (navedeno v Sporočila ACM, »Zaupanje, ureditev in umetna inteligenca človeka v zanki v evropski regiji« Stuarta Middletona, Emmanuela Letouzea, Alija Hossainija in Adriane Chapman, april 2022).

Bistvo je, da če lahko razvijalce umetne inteligence pripravimo do tega, da spoštujejo etično umetno inteligenco, upamo, da bodo na koncu ustvarili zaupanja vredno umetno inteligenco. Vse to je lepo in prav, vendar se zdi nekoliko nepraktično v resničnem svetu, čeprav je absolutno pot, ki se ji je vredno posvetiti.

Evo, kar mislim.

Predpostavimo, da se razvijalci umetne inteligence marljivo trudijo izdelati sistem umetne inteligence za nek namen, ki ga bomo na splošno imenovali X. Skrbno poskrbijo, da umetna inteligenca spoštuje predpise o preglednosti etike umetne inteligence. Močno zagotavljajo, da je zasebnost ustrezno vgrajena v AI. Za skoraj vsa običajna načela etike AI izdelovalci AI izčrpno zagotavljajo, da AI izpolnjuje dano pravilo.

Bi zdaj morali zaupati tej umetni inteligenci?

Dovolite mi, da vam pomagam razbrati vaše misli o tem odprtem vprašanju.

Izkazalo se je, da so se kibernetski prevaranti uspeli infiltrirati v umetno inteligenco in prikrito prisiliti umetno inteligenco, da izvede X, hkrati pa kibernetskim hekerjem posredovati vse podatke, ki jih umetna inteligenca zbira. S tem ti zlobneži zahrbtno spodkopavajo načelo zasebnosti. Ne zavedate se, da se to dogaja pod pokrovom umetne inteligence.

S tem dodatnim podatkom vam bom ponovno zastavil isto vprašanje.

Ali zaupate temu AI?

Upam si trditi, da bi večina ljudi takoj izjavila, da zagotovo ne zaupajte temu posebnemu AI. Morda bi ji zaupali prej. Zdaj se odločijo, da AI ne bodo več imeli za zaupanja vrednega.

Nekaj ​​ključnih spoznanj, ki temeljijo na tem preprostem primeru, je vrednih razmišljanja:

  • Dinamika zaupanja. Tudi najboljši nameni, da bi pokrili vse temelje zagotavljanja, da je etika umetne inteligence vgrajena v sistem umetne inteligence, niso zagotovilo, kaj bi se umetna inteligenca lahko izkazala ali postala. Ko se umetna inteligenca začne uporabljati, lahko zunanji uporabniki potencialno ogrozijo pridobivanje etične umetne inteligence.
  • Nižanje zaupanja od znotraj. Dejanje nižanja zanesljivosti ni nujno, da so tujci. Insajder, ki redno vzdržuje sistem AI, se lahko zmoti in oslabi AI, da postane manj vreden zaupanja. Ta razvijalec umetne inteligence morda ne ve, kaj je naredil.
  • Nenamerni kompromisi zaupanja. Samonastavljiva ali samoregulirajoča umetna inteligenca se lahko na neki točki prilagodi in zavije na ozemlje, ki ni vredno zaupanja. Morda umetna inteligenca poskuša okrepiti preglednost umetne inteligence, hkrati pa neustrezno ogroža vidike zasebnosti.
  • Razpršenost zaupanja. Poskus, da bi dosegli vsa načela etike umetne inteligence do enake najvišje stopnje zanesljivosti, običajno ni izvedljiv, saj so pogosto v navzkrižnem namenu ali imajo druge inherentne potencialne konflikte. Precej idealizirana perspektiva je verjeti, da so vsi etični predpisi AI sanjsko usklajeni in vsi dosegljivi do neke enake maksimalne stopnje.
  • Zaupanje je lahko drago. Stroški poskusa doseganja vrhunskega videza zaupanja vredne umetne inteligence z izvajanjem različnih obsežnih in izčrpnih korakov ter upoštevanjem nabora načel etike umetne inteligence bodo razmeroma visoki. Z lahkoto lahko trdite, da bi bili stroški previsoki v smislu uporabe nekaterih sistemov umetne inteligence, ki imajo sicer pomembno vrednost za družbo, tudi če bi bila umetna inteligenca manj kot idealna zaradi želje po zanesljivosti.
  • In tako naprej.

Ne razlagajte si prejšnjih opomb napačno, da bi namigovali, da bi morali nekako preprečiti prizadevanja za temeljito izgradnjo in vzpostavitev zaupanja vrednega AI. Tako rekoč bi otroka na hitro vrgli ven s kopalno vodo. Pravilna razlaga je, da moramo opraviti te zaupanja vredne dejavnosti, da bi umetna inteligenca pridobila zaupanja vredno obravnavo, vendar to samo po sebi ni zdravilo za vse ali srebrna paša.

Večstranske poti do zanesljive umetne inteligence

Obstajajo pomembni dodatni večstranski načini, kako si prizadevati za zaupanja vredno umetno inteligenco.

Na primer, kot sem že opisal v svojih kolumnah, si množica na novo nastajajočih zakonov in predpisov o umetni inteligenci prizadeva spodbuditi izdelovalce umetne inteligence k oblikovanju zaupanja vredne umetne inteligence, glejte povezava tukaj in povezava tukaj.

Te zakonske zaščitne ograje so ključnega pomena kot krovno sredstvo za zagotavljanje, da tisti, ki snujejo umetno inteligenco, v celoti odgovarjajo za svojo umetno inteligenco. Brez takšnih morebitnih pravnih sredstev in zakonitih kazni bodo tisti, ki brezglavo uvajajo umetno inteligenco na trg, verjetno nadaljevali s tem, ne da bi resno razmišljali o doseganju zaupanja vredne umetne inteligence. Predvsem bi lahko dodal, da če so ti zakoni in predpisi slabo zasnovani ali neustrezno izvajani, bi lahko žal zmanjšali prizadevanje za zaupanja vredno umetno inteligenco, morda ironično in nenavadno spodbujajo nezaupanja vredno umetno inteligenco nad zaupanja vredno umetno inteligenco (za nadaljnjo razlago glejte moje razprave v kolumni).

Bil sem tudi odločen zagovornik tega, kar sem goreče imenoval Boti angel varuh AI (oglejte si mojo pokritost na povezava tukaj). To je prihajajoča metoda ali pristop za boj proti ognju z ognjem, in sicer z uporabo umetne inteligence, ki nam pomaga pri soočanju z drugo umetno inteligenco, ki bi lahko ali pa tudi ne bila vredna zaupanja.

Najprej bo koristno nekaj konteksta v ozadju.

Recimo, da se odločite zanašati na sistem umetne inteligence, za katerega niste prepričani o njegovi zanesljivosti. Ključni pomislek bi lahko bil, da ste sami pri svojih poskusih ugotavljanja, ali je umetni inteligenci treba zaupati ali ne. AI je potencialno računsko hitrejši od vas in vas lahko izkoristi. Potrebujete nekoga ali nekaj na svoji strani, da vam pomaga.

Ena perspektiva je, da bi moral vedno obstajati človek v zanki, ki vam bo pomagal, ko boste uporabljali sistem AI. Vendar je to problematična rešitev. Če umetna inteligenca deluje v realnem času, o čemer bomo takoj razpravljali, ko gre za prihod samovozečih avtomobilov, ki temeljijo na umetni inteligenci, morda ne bo dovolj imeti človeka v zanki. Umetna inteligenca bi lahko delovala v realnem času in do takrat, ko imenovani človek v zanki vstopi v sliko, da bi ugotovil, ali umetna inteligenca deluje pravilno, je morda že prišlo do katastrofalnega rezultata.

Poleg tega to prinese še en dejavnik glede zaupanja. Običajno dodelimo stopnjo zaupanja glede na kontekst ali okoliščine, s katerimi se soočamo. Morda popolnoma zaupate svojemu malčku ali hčerki, da vam bo zvest, toda če ste na pohodu in se odločite, da se boste zanašali na malčka, da vam bo povedal, ali je varno stopiti na rob pečine, mislim, da bi bili modri razmisliti, ali lahko malček ponudi takšen nasvet za življenje ali smrt. Otrok lahko to počne resno in iskreno, pa kljub temu ne more ustrezno svetovati.

Enak pojem je povezan z zaupanjem, ko gre za AI. Sistem umetne inteligence, ki ga uporabljate za igranje dame ali šaha, verjetno ni vključen v nobeno razmišljanje o življenju ali smrti. Z dodelitvijo zaupanja ste lahko bolj sproščeni. Samovozeči avtomobil na osnovi umetne inteligence, ki drvi po avtocesti pri visokih hitrostih, zahteva veliko večjo stopnjo zaupanja. Najmanjši udarec voznega sistema z umetno inteligenco lahko vodi neposredno v vašo smrt in smrt drugih.

V objavljenem intervjuju Beene Ammanath, izvršne direktorice Global Deloitte AI Institute in avtorice knjige Zaupanja vreden AI, podoben poudarek na upoštevanju kontekstualnih vidikov, kjer nastopi zanesljivost umetne inteligence: »Če gradite rešitev umetne inteligence, ki izvaja diagnozo pacientov, sta poštenost in pristranskost izjemno pomembni. Če pa gradite algoritem, ki napoveduje okvaro reaktivnega motorja, pravičnost in pristranskost nista tako pomembni. Zaupanja vredna umetna inteligenca je v resnici struktura, s katero lahko začnete razmišljati o razsežnostih zaupanja v vaši organizaciji« (Venturebeat, 22. marec 2022).

Ko razpravljate o zaupanja vrednem AI, si lahko to temo razlagate na več načinov.

Na primer, zaupanja vreden AI je nekaj, na kar vsi gledamo kot na zaželen in ambiciozen cilj, in sicer, da bi morali imeti željo po oblikovanju in razširjanju zaupanja vredne umetne inteligence. Obstaja še ena uporaba fraze. Nekoliko alternativna uporaba je to zaupanja vreden AI je stanje ali meritev, tako da lahko nekdo trdi, da je izdelal sistem AI, ki je primerek zaupanja vrednega AI. Uporabite lahko tudi frazo zaupanja vreden AI predlagati metodo ali pristop, ki ga je mogoče uporabiti za doseganje zanesljivosti AI. itd.

V zvezi s tem verjamem, da se zavedate, da ni vsa umetna inteligenca enaka in da moramo paziti, da ne dajemo splošnih izjav o vseh umetni inteligenci. Določen sistem AI se bo verjetno bistveno razlikoval od drugega sistema AI. Eden od teh sistemov umetne inteligence je lahko zelo zaupanja vreden, drugi pa malo vreden zaupanja. Bodite previdni pri predpostavki, da je umetna inteligenca monolit, ki je popolnoma vreden zaupanja ali popolnoma nezanesljiv.

Temu preprosto ni tako.

Naslednjič bi rad na kratko opisal nekatere svoje tekoče raziskave o zanesljivi umetni inteligenci, ki bi vas lahko zanimale, in ki zajemajo nastajajočo vlogo Boti angel varuh AI.

Evo, kako to gre.

Oboroženi bi bili s sistemom AI (bot angel varuh AI), ki je zasnovan za merjenje zanesljivosti nekaterih drugih sistemov AI. Bot angel varuh AI se osredotoča predvsem na vašo varnost. Pomislite na to, kot da imate sredstva za spremljanje umetne inteligence, na katero se zanašate, tako da imate v svojem pravem žepu drug sistem umetne inteligence, ki se morda izvaja na vašem pametnem telefonu ali drugih podobnih napravah. Vaš pregovorni varuh z umetno inteligenco lahko izračuna na podlagi, na katero se zanašate, in deluje z velikimi hitrostmi in izračuna trenutno situacijo v realnem času, veliko hitreje, kot bi to lahko storil človek v zanki.

Morda boste na prvi pogled pomislili, da bi AI, na katerega se že zanašate, moral nekaj imeti notranji Zaščitne ograje z umetno inteligenco, ki delujejo enako kot ta bot angel varuh z umetno inteligenco, ki ločeno izračuna. Ja, to bi bilo gotovo zaželeno. Eden od pomislekov je, da so zaščitne ograje z umetno inteligenco, vgrajene v sistem umetne inteligence, morda celostno in škodljivo usklajene z umetno inteligenco per se, zato domnevna zaščitna ograja z umetno inteligenco ne more več v nekem smislu neodvisno preveriti ali potrditi umetne inteligence.

Nasprotna ideja je, da je vaš AI angel varuh bot neodvisen ali tretji mehanizem AI, ki se razlikuje od AI, na katerega se zanašate. Nahaja se zunaj druge umetne inteligence in ostaja predan vam in ni predan umetni inteligenci, ki jo spremljate ali ocenjujete.

Neposreden način razmišljanja o tem je mogoče izraziti z naslednjimi poenostavljenimi izjavami, podobnimi enačbam. Lahko bi rekli, da "P" želi potencialno zaupati "R", da opravi določeno nalogo "X":

To bi bilo naslednje, če bi bili vpleteni samo ljudje:

  • Oseba P zaupa osebi R, da opravi nalogo X.

Ko se odločimo zanašati na AI, se izjava preoblikuje v tole:

  • Oseba P zaupa AI instance-R, da opravi nalogo X.

Bota angela varuha AI lahko dodamo tako, da rečemo:

  • Oseba P zaupa instanci AI-R, da opravi nalogo X, saj jo nadzira primerek bota angela varuha AI-Z

Bot angel varuh AI neumorno in neizprosno ocenjuje AI, na katerega se zanašate. Kot tak vas lahko vaš priročen varuh AI opozori, da je zaupanje tega drugega AI neupravičeno. Ali pa lahko varuh AI elektronsko sodeluje z drugim AI, da bi poskušal zagotoviti, da se kakršna koli odstopanja od zaupanja vrednega hitro odpravijo, in tako naprej (glejte moje poročanje o takih podrobnostih na povezava tukaj).

Metafora zanesljivega rezervoarja zaupanja

Ker razpravljamo o različnih stopnjah zaupanja, vam bo morda uporabna metafora o zanesljivosti, če boste zaupanje razumeli kot vrsto rezervoarja.

Imate določeno mero zaupanja v določeno osebo ali stvar v določenih okoliščinah v določenem trenutku. Raven zaupanja se bo dvignila ali znižala, odvisno od tega, kaj se še zgodi v zvezi s to določeno osebo ali stvarjo. Zaupanje je lahko na ničelni ravni, ko nimate nikakršnega zaupanja v osebo ali stvar. Zaupanje je lahko negativno, če se odločite za nezaupanje do te osebe ali stvari.

V primeru sistemov umetne inteligence bo vaš rezervoar zaupanja za določeno umetno inteligenco, na katero se zanašate v določenih okoliščinah, narasel ali padel, odvisno od vaše ocene zanesljivosti umetne inteligence. Včasih se morda dobro zavedate te različne stopnje zaupanja v AI, medtem ko se v drugih primerih morda manj zavedate in še bolj zaradi slutnje, da presojate o zanesljivosti.

Načini, o katerih smo tukaj razpravljali o sredstvih za povečanje ravni zaupanja za AI, vključujejo:

  • Spoštovanje Etike umetne inteligence. Če je bila umetna inteligenca, na katero se zanašate, zasnovana tako, da se je poskušala držati pravilnih etičnih predpisov umetne inteligence, bi to razumevanje verjetno uporabili za povečanje stopnje vašega rezervoarja zaupanja za ta določen sistem umetne inteligence. Kot stransko opombo je možno tudi, da posplošite na druge sisteme umetne inteligence glede njihove zanesljivosti, čeprav je to lahko včasih zavajajoča oblika tega, kar imenujem AI zaupa širjenju avre (pri tem bodite previdni!).
  • Uporabite Human-In-The-Loop. Če ima AI človeka v zanki, lahko pozitivno povečate svoje zaznano zaupanje v AI.
  • Vzpostavite zakone in predpise. Če obstajajo zakoni in predpisi, povezani s to posebno vrsto umetne inteligence, lahko prav tako povečate svojo stopnjo zaupanja.
  • Zaposlite AI Guardian Angel Bot. Če imate pripravljenega bota angela varuha AI, bo tudi to še dodatno dvignilo vašo stopnjo zaupanja.

Kot smo že omenili, je lahko zaupanje precej krhko in razpade v trenutku (tj. rezervoar zaupanja hitro in nenadoma izprazni vse zgrajeno zaupanje).

Predstavljajte si, da ste v samovozečem avtomobilu, ki temelji na umetni inteligenci, in umetna inteligenca med vožnjo nenadoma radikalno zavije v desno, kar povzroči, da kolesa zacvilijo in avtonomno vozilo skoraj prisili v nevarno prevrnitev. Kaj bi se zgodilo z vašo stopnjo zaupanja? Zdi se, da tudi če bi umetni inteligenci prej zaupali na povišano raven, bi dramatično in nenadoma padla raven zaupanja, kar je razumno.

Stavim, da si v tem trenutku te tehtne razprave želite dodatnih ilustrativnih primerov, ki bi lahko prikazali naravo in obseg zaupanja vredne umetne inteligence. Obstaja poseben in zagotovo priljubljen nabor primerov, ki so mi pri srcu. Vidite, v moji vlogi strokovnjaka za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj identificiram realistične primere, ki prikazujejo dileme etike umetne inteligence, tako da je mogoče nekoliko teoretično naravo teme lažje dojeti. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično dilemo umetne inteligence, je pojav pravih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, kaj osvetli v zvezi z iskanjem zaupanja vredne umetne inteligence, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in zaupanja vredna umetna inteligenca

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Verjamem, da to zagotavlja dovolj litanij opozoril, na podlagi katerih bom povedal.

Zdaj smo pripravljeni, da se poglobimo v samovozeče avtomobile in zaupanja vredno umetno inteligenco.

Zaupanje je vse, zlasti v primeru samovozečih avtomobilov, ki temeljijo na umetni inteligenci.

Zdi se, da družba previdno gleda na pojav samovozečih avtomobilov. Po eni strani obstaja veliko upanje, da bo prihod pravih samovozečih avtomobilov dokazljivo zmanjšal število smrtnih žrtev, povezanih z avtomobili. Samo v Združenih državah je letno približno 40,000 smrti in približno 2.5 milijona poškodovanih zaradi prometnih nesreč, glejte mojo zbirko statistik na povezava tukaj. Ljudje pijemo in vozimo. Ljudje vozijo, ko so moteni. Zdi se, da je naloga vožnje avtomobila sestavljena iz tega, da se lahko ponavljajoče in nezmotljivo osredotočite na vožnjo in se izognete prometnim nesrečam. Kot taki bi lahko zasanjano upali, da bodo sistemi za vožnjo z umetno inteligenco vodili samovozeče avtomobile ponavljajoče in nezmotljivo. Samovozeče avtomobile si lahko predstavljate kot dvojnik, ki sestoji iz zmanjšanja števila smrtnih žrtev in poškodb v prometnih nesrečah, skupaj z možnostjo omogočanja mobilnosti na veliko širši in dostopnejši osnovi.

Toda zaskrbljenost medtem prevladuje nad družbenim dojemanjem, ali bodo samovozeči avtomobili dovolj varni, da bodo na splošno na naših javnih cestah.

Če celo en samovozeči avtomobil zaide v nesrečo ali trk, ki povzroči eno samo smrt ali hudo poškodbo, lahko verjetno pričakujete, da bo današnje nekoliko vzpostavljeno zaupanje do teh avtomobilov brez voznika na podlagi umetne inteligence strmo padlo. Videli smo, da se je to zgodilo, ko se je v Arizoni zgodil zdaj že razvpiti incident, ki je vključeval nekoliko (ne prav) samovozeči avto, ki je trčil v pešca in ga ubil (glejte moje poročanje na tukaj povezava).

Nekateri strokovnjaki poudarjajo, da je nepošteno in neprimerno zaupanje v samovozeče avtomobile z umetno inteligenco temeljiti na vidiku, da bi samo ena takšna naslednja smrtonosna nesreča ali trčenje lahko ogrozila že tako razmeroma brez trkov preskuse na javnih cestah. Poleg tega je na nadaljnji nepošteni podlagi verjetnost, da bo družba ne glede na to, katera znamka ali model samovozečih avtomobilov z umetno inteligenco se zapletla v žalosten dogodek, nedvomno krivila vse znamke samovozečih avtomobilov.

Celotni samovozeči avtomobili bi lahko bili na kratko omadeževani in industrija kot celota bi lahko utrpela ogromen odziv, ki bi povzročil morebitno zaustavitev vseh preskusov na javnih cestah.

K takšnemu povratnemu udarcu prispevajo nesmiselne izjave odkritih zagovornikov samovozečih avtomobilov, da se vsi avtomobili brez voznika ne bodo mogli porušiti. Ta zamisel o nezrušitvi ni le popolnoma napačna (glej povezava tukaj), zahrbtno postavlja industrijo samovozečih avtomobilov za povsem neustrezna pričakovanja. Te nenavadne in nedosegljive izjave, da ne bo nobenih smrtnih žrtev zaradi samovozečih avtomobilov, spodbujajo napačno prepričanje, da so kakršne koli prometne nesreče avtomobilov brez voznika zanesljiv znak, da je celoten komplet zaman.

Ob spoznanju, da bi napredek v smeri samovozečih avtomobilov in postopno kopičenje družbenega zaupanja lahko izginila v trenutku, je izrazita žalost. To bo prava predstavitev krhkosti zaupanja.

zaključek

Številni proizvajalci avtomobilov in samovozeča tehnološka podjetja na splošno upoštevajo načela etike umetne inteligence, s čimer poskušajo zgraditi in uporabiti zaupanja vredno umetno inteligenco v smislu varnih in zanesljivih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. Prosimo, zavedajte se, da so nekatera od teh podjetij močnejša in bolj predana zapovedim etične umetne inteligence kot druga. Obstajajo tudi občasna nova podjetja ali novopečena podjetja, povezana s samovozečimi avtomobili, za katera se zdi, da opuščajo večino temeljev etike umetne inteligence (oglejte si mojo oceno na povezava tukaj).

Na drugih frontah so se novi zakoni in predpisi, ki pokrivajo samovozeče avtomobile, postopoma uvrščali v pravne knjige. Druga stvar je, ali imajo potrebne zobe, da jih podpirajo, prav tako pa tudi, ali se uveljavljanje teh zakonov jemlje resno ali se spregleda (za analize o tem glejte moje kolumne).

Tu je tudi visokotehnološki vidik. Predvideval sem, da bomo postopoma videli različice botov angelov varuhov AI, ki bodo prišli v ospredje v areni avtonomnih vozil in samovozečih avtomobilov. Nismo še tam. To bo postalo bolj razširjeno, ko bo priljubljenost samovozečih avtomobilov postala bolj razširjena.

Ta zadnja točka pripelje do znane vrstice o zaupanju, ki jo nedvomno že znate na pamet.

Zaupajte, vendar preverite.

Lahko si dovolimo razširiti svoje zaupanje, morda velikodušno. Medtem pa bi morali kot jastreb paziti, da se zaupanje, ki ga porajamo, potrdi tako z besedami kot z dejanji. Nekaj ​​zaupajmo umetni inteligenci, vendar neskončno preverjajmo, ali zaupamo ustrezno in s široko odprtimi očmi.

To mi lahko zaupaš.

Vir: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/