Etika umetne inteligence in zakonodaja o umetni inteligenci bi se morda spodbudila in spodbudila k obveznim varnostnim opozorilom za vse obstoječe in prihodnje umetne inteligence

Vaše vsakodnevne dejavnosti so nedvomno bombardirane s tisoč ali več takšnimi ali drugačnimi previdnostnimi opozorili.

Preizkusite te za velikost:

  • Ves čas morate nositi zaščitna očala
  • Nevarnost: Nevarne kemikalije v bližini
  • Visoka napetost – izogibajte se
  • Opozorilo: Bodite pozorni na svojo okolico
  • Predmeti v ogledalu so bližje, kot se zdijo
  • Odstranite otroka pred zlaganjem (kot je navedeno na otroških vozičkih)
  • Pozor: Prezrite to sporočilo

Večina teh je priročnih in povsem premišljenih znakov ali nalepk, ki nam služijo, da smo, upamo, varni in zavarovani.

Upoštevajte, da sem na seznam prikradel nekaj "izstopajočih", da bi izpostavil nekaj omembe vrednih točk.

Nekateri ljudje na primer menijo, da je noro, da imajo otroški vozički pritrjeno oznako, ki vas opozarja, da vozička ne smete zložiti, medtem ko dojenček še vedno sedi v napravi. Čeprav je znak vsekakor ustrezen in vestno uporaben, se zdi, da že osnovna zdrava pamet zadostuje.

Katera oseba ne bi po lastni volji ugotovila, da mora najprej odstraniti otroka?

No, drugi poudarjajo, da imajo takšne oznake pomemben namen. Prvič, nekdo se morda res ne zaveda, da mora otroka odstraniti, preden zloži voziček. Morda je oseba domnevala, da je bil voziček premišljeno zasnovan tako, da zlaganje ne bo škodovalo otroku. Ali pa so morda vgrajene varnostne funkcije, ki preprečujejo zlaganje, ko je v vozičku otrok. itd.

Prav tako se lahko zgodi, da je bila oseba raztresena in bi nespametno zložila voziček z otrokom in vsem, vendar je nalepka osebo k sreči spodbudila, naj tega ne stori (nekateri trdijo, da se zdi malo verjetno, da bi taka oseba opazila oznako vseeno). Obstaja tudi dejstvo, da bi lahko kdo tožil proizvajalca vozička, če takšne oznake ne bi bilo. Lahko si predstavljate eno od tistih zajetnih tožb, v katerih je bil dojenček poškodovan in se je starš odločil zbrati milijon dolarjev, ker na vozičku ni bilo opozorilnega znaka. Podjetje za otroške vozičke bi obžalovalo, da ni porabilo nekaj centov, potrebnih za izdelavo in lepljenje opozorilnih znakov na svoje vozičke.

Pozorno si oglejte tudi zadnje od opozorilnih sporočil, ki sem jih navedel zgoraj.

Odločil sem se, da objavim hudomušno sporočilo o tem, da se prepričajte, da sporočilo prezrete, saj obstaja veliko lažnih opozorilnih nalepk, ki jih ljudje dandanes kupujejo ali izdelujejo samo za zabavo. Ta je prava filozofska misel. Če preberete opozorilo, ki pravi, da opozorilo prezrete, kaj točno morate storiti, ko preberete opozorilo? To ste že prebrali, torej je navidezno v vaših mislih. Seveda ga lahko prezrete, a spet niste obveščeni, kaj je tisto, kar naj bi prezrli. Ta šala gre v krog.

Seveda opozorilne nalepke v dobri veri običajno niso šaljive ali šaljive narave.

Opozorila naj bi jemali zelo resno.

Običajno, če ne upoštevate navedenega opozorila, to storite na osebno veliko tveganje. Prav tako se lahko zgodi, da če ne boste upoštevali in upoštevali opozorila, boste potencialno tvegali tudi druge. Razmislite o dejanju vožnje avtomobila. V trenutku, ko ste za volanom avtomobila, lahko s svojimi dejanji kot voznik poškodujete sebe, poleg tega lahko poškodujete svoje sopotnike in druge, kot so ljudje v drugih avtomobilih ali bližnji pešci. V tem smislu opozorilo ni samo v vašo korist, verjetno je tudi v korist drugih.

Zakaj pokrivam te vidike opozoril in opozorilnih oznak?

Ker nekateri odločno trdijo, da potrebujemo opozorila in svarilne znake za današnjo umetno inteligenco (AI).

Pravzaprav je namen takšnih oznak dati današnjo in tudi prihodnjo umetno inteligenco. Skratka, vsaka umetna inteligenca bi na koncu imela neko obliko ali različico opozorila ali svarilne indikacije, povezane z njo.

Dobra ali slaba ideja?

Praktično ali nepraktično?

Pojdimo naprej, razpakirajmo zasnovo in poglejmo, kaj lahko naredimo iz nje.

Najprej bi rad postavil nekaj bistvenih temeljev o umetni inteligenci in zlasti o etiki umetne inteligence in pravu o umetni inteligenci, s čimer bi zagotovil, da bo tema opozoril o umetni inteligenci kontekstualno smiselna. Za tiste, ki vas na splošno zanimata etična umetna inteligenca in tudi zakon o umetni inteligenci, si oglejte mojo obsežno in stalno pokritost na povezava tukaj in povezava tukaj, samo da navedem nekaj.

Vse večja ozaveščenost o etični umetni inteligenci in tudi pravu o umetni inteligenci

Nedavno obdobje umetne inteligence je bilo sprva obravnavano kot AI za dobro, kar pomeni, da bi lahko uporabili AI za izboljšanje človeštva. Za petami AI za dobro prišlo spoznanje, da smo potopljeni tudi v AI za slabo. To vključuje umetno inteligenco, ki je bila zasnovana ali samospremenjena tako, da je diskriminatorna in omogoča računalniške izbire, ki povzročajo neupravičene pristranskosti. Včasih je umetna inteligenca zgrajena tako, medtem ko v drugih primerih zavije na to neugodno ozemlje.

Želim se popolnoma prepričati, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteči AI, bi lahko šla ta razprava v radikalno drugačno smer. Čuteča umetna inteligenca bi bila domnevno človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli superinteligentno umetno inteligenco, je možno, da bi bila takšna umetna inteligenca na koncu pametnejša od ljudi (za moje raziskovanje superinteligentne umetne inteligence kot možnosti glejte pokritost tukaj).

Močno predlagam, da stvari ostanemo prizemljene in razmislimo o današnji računalniški nečuteči umetni inteligenci.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

Bodite zelo previdni pri antropomorfiziranju današnje umetne inteligence.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivnostna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to težje, kot se morda zdi. Obstaja velika verjetnost, da bodo tudi z razmeroma obsežnim testiranjem pristranskosti še vedno vgrajene v modele za ujemanje vzorcev ML/DL.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vse to ima zelo pomembne posledice za etiko umetne inteligence in ponuja priročno okno v pridobljene izkušnje (še preden se zgodijo vse lekcije), ko gre za poskus zakonodaje umetne inteligence.

Poleg uporabe etičnih predpisov umetne inteligence na splošno obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Vnaprej opozarjajo, da bomo, če bomo sprejeli nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z zajezitvijo napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti.

V prejšnjih stolpcih sem obravnaval različna nacionalna in mednarodna prizadevanja za oblikovanje in uveljavitev zakonov, ki urejajo umetno inteligenco, glejte povezava tukaj, na primer. Pokril sem tudi različna načela in smernice etike umetne inteligence, ki so jih opredelili in sprejeli različni narodi, vključno na primer s prizadevanji Združenih narodov, kot je Unescov sklop etike umetne inteligence, ki ga je sprejelo skoraj 200 držav, glej povezava tukaj.

Tukaj je koristen temeljni seznam etičnih meril ali značilnosti umetne inteligence v zvezi s sistemi umetne inteligence, ki sem jih že natančno raziskal:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Ta načela etike umetne inteligence naj bi resno uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo prizadevanja za razvoj umetne inteligence, in celo tistimi, ki na koncu izvajajo in vzdržujejo sisteme umetne inteligence.

Vse zainteresirane strani v celotnem življenjskem ciklu razvoja in uporabe umetne inteligence so obravnavane v okviru spoštovanja že vzpostavljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da morajo »samo koderji« ali tisti, ki programirajo umetno inteligenco, upoštevati pojme etike umetne inteligence. Kot je bilo že poudarjeno v tem dokumentu, je potrebna vas, da zasnuje in uporabi umetno inteligenco, za kar pa mora biti cela vas seznanjena in spoštovati predpise etike umetne inteligence.

Pred kratkim sem pregledal tudi Listina pravic AI kar je uradni naslov uradnega dokumenta ameriške vlade z naslovom »Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People«, ki je rezultat enoletnega prizadevanja Urada za znanost in tehnološko politiko (OSTP). ). OSTP je zvezni subjekt, ki služi za svetovanje ameriškemu predsedniku in izvršnemu uradu ZDA o različnih tehnoloških, znanstvenih in inženirskih vidikih nacionalnega pomena. V tem smislu lahko rečete, da je ta listina pravic AI dokument, ki ga je odobrila in potrdila obstoječa Bela hiša ZDA.

V listini o pravicah umetne inteligence je pet ključnih kategorij:

  • Varni in učinkoviti sistemi
  • Algoritemska diskriminacijska zaščita
  • Zasebnost podatkov
  • Obvestilo in pojasnilo
  • Človeške alternative, premislek in rezerva

Skrbno sem pregledal te predpise, vidite povezava tukaj.

Zdaj, ko sem postavil koristne temelje za te sorodne teme etike umetne inteligence in zakona o umetni inteligenci, smo pripravljeni, da skočimo k omamni temi, ali bi morala imeti umetna inteligenca opozorilne oznake ali ne.

Pripravite se na osupljivo informativno potovanje.

Postavljanje opozorilnih nalepk na AI kot sredstvo za zaščito človeštva

Vse glasneje je, da bi morda morala umetna inteligenca priti z nekakšnim opozorilom.

Na primer, v nedavnem članku v Pregled tehnologije MIT ki je razpravljal o naraščajočem zanimanju za izvajanje revizij umetne inteligence, se je pojavila zamisel o zagotavljanju opozorilnih znakov: »Rast teh revizij kaže, da bomo nekega dne morda videli opozorila v slogu cigaretnih škatlic, da lahko sistemi umetne inteligence škodujejo vašemu zdravju in varnosti. Drugi sektorji, kot sta kemikalije in hrana, izvajajo redne revizije, da se zagotovi, da so izdelki varni za uporabo. Bi kaj takega lahko postalo norma v AI?« (Pregled tehnologije MIT, Melissa Heikkilä, 24. oktober 2022).

Poklepetajmo na splošno o opozorilnih in svarilnih znakih.

Opozorila in svarila na številnih izdelkih in storitvah vsakodnevne narave že vsi dobro poznamo. Včasih so varnostni znaki zakonsko določeni kot obvezni, v drugih primerih pa obstaja diskrecijska pravica glede uporabe takšnih znakov. Poleg tega so nekateri varnostni znaki standardizirani, na primer določeni po standardu ANSI Z535 in standardu OSHA 1910.14. Ti standardi zajemajo vidike, kot so besedilo znaka, uporabljene barve in pisave, oblika znaka in različne druge podrobnosti.

Smiselno je imeti standarde za takšne opozorilne znake. Kadar koli vidite tak znak, če ustreza navedenim standardom, je večja verjetnost, da boste verjeli, da je znak legitimen, poleg tega potrebujete manj kognitivne obdelave za analizo in razumevanje znaka. Pri znakih, ki niso standardiziranega pristopa, morate pogosto v mislih izračunati, kaj vam znak sporoča, s čimer boste morda izgubili dragoceni čas za ukrepanje ali pa boste znak popolnoma napačno ocenili in opozorila ne boste pravilno razumeli.

Obstaja lahko vrsta takih znakov, za katere so pogosto razvrščeni nekako takole:

  • Znak za nevarnost: Največja skrb in znak neposredne nevarnosti z verjetnimi resnimi posledicami
  • Opozorilni znak: znak nevarnosti, ki je manjša od "nevarnosti", vendar še vedno precej resna
  • Opozorilni znak: nakazuje potencialno nevarnost, ki je manj kot "opozorilo", vendar še vedno resna
  • Znak za obvestilo: Nakazuje informativno opozorilo, ki je manj kot "previdnost", vendar še vedno vključuje zaskrbljujoče vidike

Glede na zgoraj navedeno ozadje o opozorilih in opozorilnih znakih lahko nadaljujemo in poskusimo to kontekstualno uporabiti pri uporabi umetne inteligence.

Prvič, potencialno bi se lahko nekako strinjali, da so znaki z umetno inteligenco morda v podobnem razponu resnosti, kot je običajno pri vsakdanjih znakih, tako da:

  • Znak za nevarnost AI: AI vzbuja največjo skrb in kaže na takojšnjo nevarnost z verjetnimi hudimi posledicami
  • Opozorilni znak AI: AI kaže na nevarnost, ki je manjša od "nevarnosti", vendar še vedno precej resna
  • AI opozorilni znak: Umetna inteligenca nakazuje potencialno nevarnost, ki je manj kot "opozorilo", a še vedno resna
  • Obvestilni znak AI: Umetna inteligenca, ki kaže na informacijsko opozorilo, ki je manj kot "previdnost", vendar še vedno vključuje zaskrbljujoče vidike

Bistvo je, da ne bo vsaka umetna inteligenca enako zaskrbljujoča. Lahko se zgodi, da umetna inteligenca predstavlja ogromna tveganja ali ima le obrobna tveganja. V skladu s tem bi morale oznake odražati, kaj je katero. Če bi bila vsa opozorila ali opozorilni znaki umetne inteligence preprosto prikazani kot enakega kalibra, verjetno ne bi vedeli ali se zavedali, ali naj nas umetna inteligenca zelo ali le rahlo skrbi. Uporaba tipizirane sheme besedila bi lahko olajšala življenje pri opazovanju in razlagi opozorilnih znakov, povezanih z umetno inteligenco.

Morda se sprašujete, kaj bi znaki še povedali glede posebnosti sporočila, ki ga je treba posredovati.

Tega se je vsekakor težje lotiti. Možnosti umetne inteligence za početje stvari, ki veljajo za nevarne ali zaskrbljujoče, bi bile izjemno velike, skoraj neskončne. Ali jih lahko strnemo v nek rutiniziran niz, ki je napisan s samo peščico besed? Ali pa bomo morali omogočiti bolj svoboden pristop k temu, kako bo besedilo potekalo?

Pustil vam bom, da razmislite o tem odprtem vprašanju.

Če gremo naprej, ponavadi vidimo opozorilne znake na predmetih. Sistem umetne inteligence ni nujno "objekt" v enakem smislu kot običajno pritrjevanje znakov. To postavlja vprašanje, kje bodo opozorilni znaki AI.

Lahko se zgodi, da se bo, ko uporabljate aplikacijo na recimo pametnem telefonu, če uporablja AI, prikazalo sporočilo, ki vsebuje opozorilo, povezano z AI. Aplikacija bi vas opozorila na osnovno uporabo AI. To je lahko pojavno sporočilo ali pa je predstavljeno na različne vizualne in celo slušne načine.

Obstaja tudi situacija, ko uporabljate storitev, ki je podprta z AI, čeprav morda ne komunicirate neposredno z AI. Na primer, lahko se pogovarjate s človeškim agentom o pridobitvi hipoteke za stanovanje, za kar je agent tiho v zakulisju in uporablja sistem umetne inteligence, ki usmerja njihova prizadevanja.

Tako bi morali predvideti, da bi morali biti opozorilni znaki AI prisotni v obeh primerih uporabe AI, tako da:

  • AI, specifičen za izdelek: Umetna inteligenca kot izdelek bi morala imeti očitne opozorilne ali svarilne znake za umetno inteligenco
  • Storitveno usmerjen AI: Umetna inteligenca kot storitev (neposredno ali posredno) bi morala imeti opozorilne ali svarilne znake za umetno inteligenco

Skeptiki bi gotovo hitro namigovali, da je izdelovalec aplikacije opozorilni znak AI morda zvito prikril, tako da opozorilo ni posebej opazno. Morda se opozorilo prikaže za kratek trenutek in res ne opazite, da je bilo prikazano. Še en zahrbten trik bi bil, da bi iz tega naredili nekakšno igro, ki bi navidezno zmanjšala resnost opozorila in zazibala ljudi, da mislijo, da je opozorilo nepomembno.

Da, skoraj lahko stavite, da bodo vsi opozorilni znaki, povezani z umetno inteligenco, prevarani in uporabljeni na načine, ki niso v duhu in namenu opozorilnega sporočila, ki naj bi ga posredovali.

Vsi ti skepticizmi se nanašajo na to, ali bi etiko umetne inteligence uporabili kot »mehke zakone«, da bi poskusili napredovati glede opozoril in opozoril, povezanih z umetno inteligenco, ali pa bi uporabili »trde zakone«, vključno s sprejetimi zakoni s sodno podporo. V teoriji bi mehka zakonodaja omogočila večjo podobnost igranja z zadevo, medtem ko bi zakoni v knjigah imeli potencial za vladno uveljavljanje in prinesli večjo strogost.

Druga skrb je, ali bi znaki z umetno inteligenco vseeno kaj spremenili.

Številne raziskave o vedenju potrošnikov ponavadi kažejo nejasne rezultate, ko gre za zagotavljanje opozorilnih nalepk za potrošnike. Včasih so opozorila učinkovita, včasih ne. Uporabimo nekaj teh raziskav v kontekstu umetne inteligence.

Razmislite o teh vidikih:

  • Zaznavanje: Ali bi tisti, ki uporabljajo AI, ki vsebuje izvedljiv opozorilni znak AI, aktivno opazili ali zaznali, da se jim znak prikazuje (ob predpostavki, da se tak znak pojavi)?
  • razumevanje: Tisti, ki so opazili, ali bi razumeli ali razumeli, kaj jim poskuša nakazati opozorilni znak AI?
  • Ukrep: Ali bo tiste, ki naredijo ta miselni preskok, opozorilni znak AI spodbudil k ukrepanju ali kako drugače služil za ustrezno usmerjanje njihovega vedenja?

Predvidevate lahko, da bodo raziskovalci zadevo natančno preučili, če se bodo pojavili opozorilni znaki umetne inteligence. Zamisel bi bila pomagati pri razjasnitvi, v katerih okoliščinah so opozorila koristna in kdaj ne. To pa je povezano z zasnovo ter videzom in občutkom. Lahko bi tudi pričakovali, da bi bilo treba širšo javnost poučiti ali obvestiti o pojavu teh opozorilnih in svarilnih znakov umetne inteligence, da bi se nanje navadila.

Upoštevati je treba veliko preobratov.

Ali naj se opozorilo AI ali svarilni znak pojavi samo na začetku uporabe aplikacije? Morda izhodišče samo po sebi ni dovolj. Oseba bi lahko na prvi pogled pomislila, da aplikacija samo igra varno z uporabo opozorila, in se zato opozorilu ne posveča veliko. Ko je oseba na polovici uporabe aplikacije, bi bilo morda potrebno dodatno opozorilo. V tem trenutku se oseba bolj zaveda, kaj aplikacija izvaja, in morda je že pozabila na prej prikazano opozorilno sporočilo.

Nato se lahko pojavi opozorilo AI ali svarilo:

  • Pred zagonom aplikacije in ravno takrat, ko bo aplikacija priklicana
  • Predstavljeno, ko se aplikacija zažene in samo na začetni točki
  • Prikazano na začetku in spet na sredini
  • Prikazano večkrat med uporabo AI
  • Podano ob koncu uporabe aplikacije
  • Navedite po izhodu iz aplikacije in morda celo nekaj minut, ur ali dni pozneje
  • Itd

Ali menite, da mora oseba, ki uporablja umetno inteligenco, potrditi ali priznati vsa taka opozorila ali opozorilne znake umetne inteligence?

Nekateri bi vztrajali, da je treba od osebe zahtevati, da potrdi, da je videla opozorila. To bi potencialno preprečilo tiste, ki bi lahko trdili, da ni bilo nobenega opozorilnega sporočila. Prav tako bi lahko povzročilo, da bi ljudje sporočila jemali resneje, saj se od njih zahteva, da potrdijo, da so opazili opozorilno indikacijo.

Tukaj je težko vprašanje za vas.

Če bi vse Mora AI zagotoviti opozorilo ali varnostno indikacijo?

Lahko trdite, da ja, vsaka umetna inteligenca mora to imeti. Tudi če umetna inteligenca predstavlja le obrobno varnostno tveganje, mora še vedno imeti neko obliko opozorilnega znaka, po možnosti samo obvestilo ali informacijsko indikacijo. Drugi bi oporekali tej trditvi. Trdili bi, da pretiravate. Tega ne potrebuje vsak AI. Poleg tega, če prisilite ves AI, da ga ima, boste oslabili namen. Ljudje bodo otrpnili, ko bodo videli opozorilne oznake. Celoten pristop bo postal farsa.

S tega vidika razmislite o tem, kaj bodo verjetno rekli izdelovalci umetne inteligence.

Eno stališče bi bilo, da bo to muka v že veste, kaj postaviti. Če bi morali spremeniti vse svoje sisteme AI in dodati to funkcijo, bi to lahko drago stalo. Dodajanje za naprej bi lahko bilo cenejše, čeprav je vključitev te določbe povezana s stroški.

Motnost je še ena možna pritožba. Kakšno sporočilo je treba prikazati? Če standardov ni, to pomeni, da bodo morali izdelovalci AI izdelati nekaj na novo. Ne samo, da to dodatno stane, morda odpira vrata tožbi. Lahko si predstavljate, da bi se izdelovalec AI lahko lotil naloge, da njegovo opozorilo ni bilo tako dobro kot kak drug sistem AI. Odvetniki bodo iz nastale zmede na koncu naredili sveženj.

Obstaja tudi skrb, da bodo ljudje zaradi teh varnostnih sporočil neupravičeno prestrašeni.

Izdelovalec umetne inteligence bi lahko opazil strmo upad števila uporabnikov zaradi varnostnega sporočila, ki je zgolj namenjeno informativnemu opozorilu. Ljudje ne bodo vedeli, kaj bi rekli o sporočilu. Če takšnih sporočil še niso videli, se lahko takoj prestrašijo in se po nepotrebnem izognejo uporabi umetne inteligence.

Te vidike omenjam, ker nekateri že razglašajo, da »ne more škoditi«, če začnemo vključevati opozorila ali varnostna sporočila AI. Za njih je ideja idealna kot jabolčna pita. Nihče ne bi mogel resno ovreči prednosti vedno potrebne varnosti ali opozoril, povezanih z umetno inteligenco. Toda to seveda ni resničen način razmišljanja o zadevi.

Lahko bi šli celo dlje in trdili, da bi lahko opozorilna sporočila AI povzročila neko obliko množične histerije. Če bi kar naenkrat začeli sisteme umetne inteligence vsiljevati, da imajo takšna sporočila, bi ljudje lahko napačno razumeli namen. Vidite, obstaja veliko opominov, da se soočamo z eksistencialno krizo umetne inteligence, pri čemer bo umetna inteligenca prevzela svet in izbrisala človeštvo, glej povezava tukaj za mojo analizo tovrstnih trditev.

Uporaba opozorilnega sporočila umetne inteligence bi lahko »navdihnila« nekatere ljudi, da verjamejo, da je konec blizu. Zakaj bi se sicer sporočila pojavljala zdaj? Vsekakor je to znak, da se AI končno pripravlja, da postane naš zatiralski vladar.

Nekakšen obupno črnogled rezultat poskusa narediti pravo stvar z ozaveščanjem javnosti o tem, kako se lahko AI prepoji z diskriminatornimi zmogljivostmi ali drugimi AI za slabo vidike.

zaključek

James Russell Lowell, slavni ameriški pesnik, je nekoč rekel: "En trn izkušnje je vreden cele divjine opozorila."

Izpostavljam vzvišeno pripombo, da podam nekaj zaključnih pripomb o zadevi opozoril ali varnostnih sporočil AI.

Možnosti so, da dokler ne bomo imeli nekoliko razširjenega spoznanja, da umetna inteligenca počne slaba dejanja, ne bo veliko hrupa za opozorilna sporočila, povezana z umetno inteligenco. Tisti izdelovalci umetne inteligence, ki se za to odločijo prostovoljno, bodo morda pohvaljeni, čeprav bi se lahko nenamerno znašli tudi nepravično nadlegovani. Nekateri poznavalci jih bodo morda napadli, ker so za začetek izkoristili AI, ki navidezno potrebuje opozorila, medtem pa se niso zavedali, da so poskušali biti prvi in ​​da vsi drugi izdelovalci AI zaostajajo.

Prekleto, če to storite, morda ne prekleto, če ne.

Drugi premislek se ukvarja s pretvorbo tistega, kar se zdi lepa konceptualna ideja, v praktično in uporabno prakso. Preprosto je mahati z rokami in nejasno zavpiti, da bi morala imeti umetna inteligenca opozorilna in varnostna sporočila. Težji del nastopi pri odločanju o tem, kakšna naj bodo ta sporočila, kdaj in kje naj bodo predstavljena, ali in v kolikšni meri njihovi stroški prinašajo zadostne koristi itd.

Tukaj bomo dali Jamesu Russellu Lowellu zadnjo besedo (poetično tako) o tej temi za zdaj: "Ustvarjalnost ni najti stvar, ampak narediti nekaj iz nje, potem ko je najdena."

Mislim, da je čas, da zavihamo rokave in se lotimo tega. In to ni samo opozorilo, je dejanje.

Vir: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- opozorila-na-vse-obstoječe-in-prihodnje-ai/