Etika umetne inteligence ostro postavlja pod vprašaj kloniranje človeškega glasu, kot je kloniranje vaših pokojnih sorodnikov, namenjeno uporabi v avtonomnih sistemih umetne inteligence

Ups, na videz odličen kos nove tehnologije je sebe in svojega izdelovalca spravil v vročo vodo.

Mislim na pojav kloniranja človeškega glasu na osnovi umetne inteligence kot nove tehnologije, ki ji je v zadnjem času uspelo priti na naslovne novice. V tem primeru je podjetje Amazon in njegova vedno naprednejša Alexa.

Bralci moje kolumne se morda spomnijo, da sem že poročal o nespodobnem boo-boou, ki se je zgodil, ko je bilo objavljeno, da je Alexa spodbudila mladeniča, naj vtakne peni v električno vtičnico (ne počnite tega!), glejte mojo reportažo na povezava tukaj. V teh okoliščinah na srečo ni bil nihče poškodovan, posledica tega pa je bila, da je sistem Alexa AI očitno zaznal predhodni virusni trend in brez kakršnega koli videza zdravorazumske ocene le ponovil nori predlog, ko so ga vprašali, naj počne nekaj zabavnega. otrok v interakciji z Alexo. To poudarja pomisleke etike umetne inteligence, da postajamo preplavljeni z umetno inteligenco, ki ji manjka vsakršen videz zdravorazumskega sklepanja, kar je predvsem težavna težava, s katero se sooča umetna inteligenca, ki še naprej kljubuje prizadevanjem za utelešenje v umetni inteligenci (za mojo analizo pridobivanja zdrave pameti na osnovi umetne inteligence prizadevanja, glej povezava tukaj).

Najnovejši dustup vključuje kloniranje glasu, znano tudi kot replikacija glasu. Najnovejše v teh tehnologijah in umetni inteligenci postavljajo pereča vprašanja o etiki umetne inteligence in etični umetni inteligenci. Za moje tekoče vseobsegajoče pokrivanje etike umetne inteligence in etične umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Kloniranje glasu na osnovi umetne inteligence je preprost koncept.

Sistem AI je programiran za zvočno snemanje nekaterih vaših izgovorjenih besed. AI nato poskuša računalniško ugotoviti vaše govorne vzorce. Na podlagi zaznanih govornih vzorcev AI nato poskuša oddati zvočni govor, ki zveni tako kot vi. Težaven del je, da govor zajema besede, ki jih AI niste posredovali kot zvočne vzorce. Z drugimi besedami, AI mora matematično oceniti, kako lahko izgovorite besede. To vključuje vse značilnosti govora, kot so ton, dviganje in spuščanje glasu, tempo ali hitrost govora itd.

Ko slišite človeka, ki se poskuša posnemati z drugim človekom, lahko običajno ugotovite, da gre za lažno predstavljanje. Kratkoročno, na primer, če imitator uporabi le nekaj besed, bo morda težko ugotoviti, da glas ni izvirni govornik. Poleg tega, če oponašalec posnema besede, ki jih je prvotni govornik dejansko izgovoril, obstaja velika verjetnost, da lahko svoj glas bolj prilagodi glasu druge osebe za to določeno izjavo.

Kratkost in poslušanje popolnoma istih besed lahko nekomu omogočita, da se lažno predstavlja.

Izziv postane pokrivanje besed, ki jih druga oseba ni izgovorila, ali tistih, za katere imitator ni nikoli slišal, da oseba izgovori te posebne besede. Nekoliko ste v temi, ko poskušate ugotoviti, kako bi oponašana oseba izgovorila te besede. Dobra novica je, da če kdorkoli drug, ki posluša imitatorja, prav tako ne ve, kako bi izvirna oseba izgovorila besede, je lahko imitator razmeroma daleč od pravega glasu, a kljub temu deluje kot kicoš in na cilju.

Prav tako bi rad za trenutek odstranil iz enačbe manire in fizično gibanje poosebljanja. Ko boste videli imitatorja, boste morda zamajani, če lahko naguba obraz ali maha z rokami na način, ki prav tako posnema osebo, ki se imitira. Dodatni znaki telesa in obraza bodo preslepili vaš um in mislili, da je tudi glas mrtev, čeprav morda ni. Purist glasovnega poosebljanja bi vztrajal, da je treba samo glas uporabiti kot merilo za ugotavljanje, ali glas primerno posnema poosebljeno osebo.

Zagotovo ste že videli različne videoposnetke deepfake, ki se te dni vrtijo po družbenih medijih. Nekdo premeteno predela videoposnetek, da se v videoposnetku pojavi obraz nekoga drugega in prekrije obraz, ki je bil na prvotnem posnetku nekoga drugega. To običajno spremlja tudi globoko ponarejanje glasu. Dobili ste dvojni udarec, saj je videoposnetek vizualno spremenjen z deepfake AI in zvok spremenjen z deepfake AI.

Zaradi razprave v tem dokumentu se osredotočam le na zvočne vidike deepfake, ki temeljijo na AI, kar se, kot je bilo že omenjeno, običajno imenuje kloniranje glasu ali replikacija glasu. Nekateri to predrzno imenujejo glas v pločevinki.

Prepričan sem, da nekateri od vas prav zdaj spodbujajo, da že nekaj časa lahko uporabljamo računalniške programe za kloniranje glasov. To samo po sebi ni nič novega. Strinjam se. Hkrati pa moramo priznati, da ta visokotehnološka zmogljivost postaja vedno boljša. No, pravim vedno bolje, a morda bi, kot boste videli čez trenutek, moral reči, da postaja vedno bolj zaskrbljujoče.

Drži se te misli.

Tehnološki napredek za kloniranje glasu zagotovo napreduje. Na primer, nekoč je veljalo, da bi morali »usposobiti« program za replikacijo zvoka z umetno inteligenco tako, da bi izgovorili celotno zgodbo besed mešanja in ujemanja. Podobno slavni ali razvpiti vrstici o hitri rjavi lisici, ki je skočila čez lenega psa (vrstica, ki naj bi nekoga prepričala, da pokrije vse črke abecede), obstajajo posebej oblikovane kratke zgodbe, ki vsebujejo mešanico besed za namene da boste povedali dovolj besed in dovolj širok izbor besed, da bo ujemanje vzorcev AI veliko lažje.

Morda ste morali prebrati več strani besed, pogosto vključno z besedami, ki jih težko izgovorite in sploh niste prepričani, kaj pomenijo, da bi zadostno omogočili ujemanje vzorcev AI. To lahko traja več minut ali včasih ur govorjenja, da umetni inteligenci zagotovi dovolj zvoka, ki ga lahko uporabi za iskanje različnih vzorcev vašega glasu. Če bi se izognili tej dejavnosti usposabljanja, je bila verjetnost, da bi posledično glasovno replikacijo zlahka uničil kateri koli vaš prijatelj, ki dobro pozna vaš glas.

V redu, takratno zanimanje razvijalcev AI je bilo osredotočeno na to, kako optimizirati vidike repliciranja zvoka. Graditelji umetne inteligence uživajo v izzivih. Po srcu naj bi bili optimizatorji. Dajte jim težavo in težili bodo k optimizaciji, ne glede na to, kam bi to lahko pripeljalo (to omenjam kot napoved, ki bo kmalu jasnejša).

Odgovori mi na tole:

  • Kakšna je najmanjša količina zvočnega vzorca, ki bi bila potrebna za maksimalno kloniranje človekovega glasu in za katerega je zvočni vzorec lahko skoraj vsak naključno dovoljen niz besed in še vedno omogoča glasovno kloniranje, da proizvede skoraj vse besede, ki bi lahko bile kdaj izgovorjene s ciljnim glasom in zvokom, ki je v bistvu enak glasu te osebe v pogovoru ali drugih kontekstualnih nastavitvah po izbiri?

Tam je veliko za razpakirati.

Upoštevajte, da želite najmanjši zvočni vzorec, ki bo maksimalno kloniral glas, tako da bodo posledične izjave AI v tem zdaj avtomatizirano podvojenem glasu videti popolnoma neločljive od dejanske osebe. To je težje, kot si mislite.

To je skoraj tako kot v tisti igralni oddaji, kjer morate poskusiti poimenovati pesem na podlagi najmanjšega števila slišanih not. Manj ko je zaigranih not, težje je uganiti, za katero pesem gre. Če je vaše ugibanje napačno, izgubite točke ali igro. Sledi boj, ali naj uporabite samo eno noto, najmanjši možni namig, potem pa se vaša verjetnost, da uganete pesem, verjetno močno zmanjša. Več not slišite, večja je verjetnost, da boste uganili pravilno pesem, vendar tudi drugim tekmovalcem omogočate večjo možnost, da ugibajo.

Ne pozabite, da imamo opravka tudi s pojmom predpisanih besed v primerjavi s kakršnimi koli besedami v primeru glasovnega kloniranja. Če oseba izgovori besede »Ne moreš prenesti resnice« in želimo, da umetna inteligenca posnema ali posnema osebo, lahko umetna inteligenca računalniško zlahka ujame vzorec. Po drugi strani pa predpostavimo, da imamo samo te besede, ki jih izgovori ta oseba: »Ali je to vse, kar me moraš vprašati«, in želimo uporabiti te besede, da potem AI reče: »Ne moreš ravnati z resnico«. Mislim, da lahko vidite, kako težko se je uriti na enem nizu besed in je treba ekstrapolirati na povsem drugačen niz besed.

Drug naporen element je kontekst za izgovorjene besede. Recimo, da vam omogočimo zvočni posnetek stavka, ko ste mirni in sproščeni. AI oblikuje te besede. Lahko vpliva tudi na umirjenost vašega glasu. Predstavljajte si, da nato želimo, da se AI pretvarja, da ste to vi, ko kričite jezni in jezni kot sršen. Zastrašujoče je, da umetna inteligenca izkrivi prvotni vzorec v natančno jezno različico vašega glasu.

Kakšne minimume gledamo?

Trenutni cilj je preseči mejo minut.

Zgrabite posneti glas, za katerega imate manj kot minuto zvoka, in zagotovite umetni inteligenci, da naredi vse neverjetno kloniranje glasu samo iz tega majhnega vzorca. Želim pojasniti, da lahko skoraj vsak sestavi AI, ki zmore to splošno v manj kot eni minuti, čeprav je nastali glasovni klon slab in ga zlahka zaznamo kot nepopolnega. Še enkrat, izrecno in odločno se zavezujem, da je čas vzorčenja minimalen in medtem je kloniranje glasu maksimalno. Dolt lahko doseže minimalno vzorčenje, če jim je tudi dovoljeno, da so pri kloniranju glasu močno submaksimalni.

To je zabaven in razburljiv tehnološki izziv. Morda se sprašujete, kakšna je vrednost ali prednosti tega početja. Kakšen namen iščemo? Kakšne koristi lahko pričakujemo za človeštvo, če bomo lahko tako učinkovito in uspešno izvajali glasovno replikacijo na podlagi umetne inteligence?

Želim, da premislite o tem mesnem vprašanju.

Napačen odgovor vas lahko nehote spravi v kup kaše.

Tukaj je nekaj, kar se zdi optimistično in povsem pozitivno.

Predpostavimo, da bi morda imeli stare posnetke slavnih ljudi, kot je Abraham Lincoln, in bi lahko te zaprašene zvočne izrezke uporabili za izdelavo glasovnega klona, ​​ki temelji na umetni inteligenci. Nato smo lahko slišali, kako je Lincoln govoril Gettysburški nagovor, kot da bi bili tam na dan, ko je izrekel štiri partiture in pred sedmimi leti nepozabni govor. Kot stransko opombo, žal nimamo nobenih zvočnih posnetkov Lincolnovega glasu (tehnologija še ni obstajala), imamo pa glasovne posnetke predsednika Benjamina Harrisona (prvega ameriškega predsednika, ki je imel glasovni posnetek ) in drugi predsedniki zatem.

Verjamem, da bi se verjetno vsi razumno strinjali, da je ta posebna uporaba glasovnega kloniranja, ki temelji na umetni inteligenci, povsem v redu. Pravzaprav bi si tega verjetno bolj želeli, kot če bi se igralec danes poskušal pretvarjati, da govori kot Lincoln. Igralec bi si verjetno izmislil tisto, kar so mislili, da zveni dejanski Lincolnov glas. To bi bila izmišljotina, morda daleč od tega, kar je bil Lincolnov glas. Namesto tega bi bilo z uporabo dobro usposobljenega sistema za kloniranje glasu z umetno inteligenco malo argumentov o tem, kako je Lincolnov glas resnično zvenel. AI bi bil dejansko pravilen, vsaj do te mere, kako dober je AI pri posnemanju ciljnega glasu.

V kategoriji dobrega pri kloniranju glasu z umetno inteligenco lahko dosežemo zmago s tovrstnim primerom uporabe.

Nočem biti mračni, vendar obstaja slaba stran celo te navidezno vsestranske uporabe.

Nekdo uporablja sistem za kloniranje glasu z umetno inteligenco, da ugotovi glas Theodora Roosevelta ("Teddyja"), našega dragocenega 26th Predsednik Združenih držav, naravoslovec, naravovarstvenik, državnik, pisatelj, zgodovinar in skoraj vsesplošno označena cenjena oseba. Govore, ki jih je imel in za katere nimamo zgodovinsko ohranjenih zvočnih verzij, bi lahko zdaj »izgovarjali«, kot da bi jih danes govoril on osebno. Pohvale vredna spodbuda za študij zgodovine.

Spremenimo to grdo, samo zato, da razkrijemo slabe strani tega.

Glasovni klon, ki temelji na Teddyju, uporabljamo za branje govora, ki ga je imel zlobni diktator. Umetni inteligenci je vseeno, kaj govori, saj v umetni inteligenci ni videti občutka. Besede so preprosto besede ali natančneje samo zvoki.

Morda ste zgroženi, da bi nekdo naredil nekaj tako podle narave. Zakaj za vraga bi klonirani glas priznanega in cenjenega Theodora Roosevelta, ki temelji na umetni inteligenci, uporabil za govor, ki ga Teddy ne samo da prvotno ni naredil, ampak poleg tega govori o temi, ki prikazuje neko zlobnost prezira vrednega diktator?

Nezaslišano, bi lahko vzkliknili.

Enostavno narejeno, sledi odgovor.

V bistvu je ena zelo pomembna skrb v zvezi z razmnoževanjem glasu, ki temelji na umetni inteligenci, ta, da se bomo nenadoma znašli preplavljeni s ponarejenimi ali rekli globoko ponarejenimi govori in izjavami, ki nimajo nobene zveze z nobenimi zgodovinskimi dejstvi ali točnostjo. Če bo dovolj teh izdelanih in objavljenih, bomo morda zmedeni glede tega, kaj je dejstvo in kaj je fikcija.

Lahko vidite, kako se to lahko zgodi. Z glasovnim klonom, ki temelji na umetni inteligenci, nekdo posname govor Woodrowa Wilsona, ki ga v resnici nikoli ni imel. To je objavljeno na internetu. Nekdo drug sliši posnetek in verjame, da je prava stvar. Objavijo ga drugje in omenjajo, da so našli ta odličen zgodovinski zapis Woodrowa Wilsona. Kmalu učenci pri pouku zgodovine uporabljajo zvok namesto branja pisne različice govora.

Nihče na koncu ne ve, ali je govor imel Woodrow Wilson ali ne. Mogoče je bilo, morda ni bilo in vsi mislijo, da tako ali tako ni pomembno (no, tisti, ki niso osredotočeni na zgodovinsko točnost in dejstva). Seveda, če je govor podli, to daje napačen vtis ali dezinformacijo o tej zgodovinski osebnosti. Zgodovina in fikcija sta združeni v eno.

Upam, da ste prepričani, da je to slaba stran, povezana s kloniranjem glasu na osnovi umetne inteligence.

Spet lahko že počnemo takšne stvari brez novejšega in izboljšanega glasovnega podvajanja, ki temelji na umetni inteligenci, vendar bo to postalo lažje in nastali zvok bo zelo težko razlikovati med resničnim in lažnim. Dandanes lahko z uporabo običajnih programov za ustvarjanje zvoka običajno poslušate izhod in pogosto zlahka ugotovite, da je zvok lažen. Z napredkom umetne inteligence kmalu ne boste več mogli verjeti svojim ušesom, tako rekoč.

Ne glede na to, kako slabo je lahko glasovno kloniranje zgodovinskih osebnosti, moramo razmisliti o morda še posebej grozljivih uporabah, ki vključujejo današnje živeče ljudi.

Prvič, ali ste že slišali za nekoliko priljubljeno prevaro, pri kateri se nekdo lažno predstavlja kot šef ali kaj podobnega? Pred nekaj leti je bila moteča moda klicati v restavracijo ali trgovino in se pretvarjati, da je šef lokala. Ponarejanje bi vključevalo ukazovanje uslužbencu, naj počne smešne stvari, kar bi ti pogosto vestno storili v lažnem prepričanju, da se pogovarjajo s svojim šefom.

Nočem se zapletati v tovrstna besna nezakonita dejanja, a drugo primerno je, da pokličete nekoga, ki je morda naglušen, in se pretvarjate, da ste njihov vnuk ali vnukinja. Imitator skuša prepričati starega starša, da jim priskrbi denar za pomoč ali jih morda na nek način reši. Na podlagi ponarejenega glasu je stari starš preslepljen, da to stori. Zaničljivo. Sramotno. žalostno

Vstopili bomo v dobo, v kateri bo glasovno kloniranje na osnovi umetne inteligence omogočilo na steroidih, če ste bili, pojav z glasom povezanih prevar in goljufij. Umetna inteligenca bo opravila tako izjemno delo replikacije glasu, da bo vsak, ki bo slišal glas, prisegel, da je dejanska oseba govorila.

Kako daleč bi to lahko šlo?

Nekateri so zaskrbljeni, da bi se sprostitev na primer atomskega orožja in vojaški napadi lahko zgodili z uporabo glasovnega klona na osnovi umetne inteligence, ki druge zavede, da verjamejo, da je vojaški častnik na najvišji ravni izdal neposredni ukaz. Enako bi lahko rekli za vsakogar na katerem koli pomembnem položaju. Uporabite izjemno natančen glasovni klon z umetno inteligenco, da zagotovite bančnemu direktorju, da sprosti milijone dolarjev v sredstvih, in to na podlagi preslepitve, da verjame, da govori z bančnim komitentom.

V preteklih letih to početje z AI ne bi bilo nujno prepričljivo. V trenutku, ko človek na drugi strani telefona začne postavljati vprašanja, bi morala AI odstopiti od pripravljenega scenarija. V tem trenutku bi se kloniranje glasu poslabšalo, včasih radikalno. Edino sredstvo za ohranitev prevare je bilo prisiliti pogovor nazaj v scenarij.

Z vrsto umetne inteligence, ki jo imamo danes, vključno z napredkom na področju obdelave naravnega jezika (NLP), lahko zapustite skript in potencialno se zdi, da glasovni klon umetne inteligence govori na naraven pogovorni način (to ni vedno tako, in še vedno obstajajo načini, kako umetno inteligenco spotakniti).

Preden se lotimo še nekaj mesa in krompirja o divjih in volnatih premislekih, ki so podlaga za kloniranje glasu na osnovi umetne inteligence, določimo nekaj dodatnih osnov o zelo bistvenih temah. Na kratko se moramo potopiti v etiko umetne inteligence in zlasti pojav strojnega učenja (ML) in globokega učenja (DL).

Morda se nejasno zavedate, da je eden najglasnejših glasov teh dni na področju umetne inteligence in celo zunaj področja umetne inteligence zahtevanje večjega videza etične umetne inteligence. Oglejmo si, kaj pomeni sklicevanje na etiko umetne inteligence in etično umetno inteligenco. Poleg tega bomo raziskali, kaj mislim, ko govorim o strojnem učenju in poglobljenem učenju.

En poseben segment ali del etike umetne inteligence, ki je bil deležen velike medijske pozornosti, je umetna inteligenca, ki kaže nenaklonjene pristranskosti in neenakosti. Morda se zavedate, da je ko se je začela najnovejša doba umetne inteligence, prišlo do velikega izbruha navdušenja nad tem, kar nekateri zdaj imenujejo AI za dobro. Na žalost smo začeli biti priča temu izbruhnemu vznemirjenju AI za slabo. Na primer, razkriti sistemi za prepoznavanje obrazov, ki temeljijo na AI, so bili razkriti, da vsebujejo rasne pristranskosti in spolne pristranskosti, o katerih sem razpravljal na povezava tukaj.

Prizadevanja za boj proti AI za slabo aktivno potekajo. Poleg glasnega pravna Pri prizadevanjih za obvladovanje napačnega ravnanja obstaja tudi bistvena prizadevanja za sprejetje etike umetne inteligence, da bi odpravili podlosti AI. Zamisel je, da bi morali sprejeti in podpreti ključna etična načela umetne inteligence za razvoj in uporabo umetne inteligence, s čimer bi spodkopali AI za slabo in hkrati naznanja in promovira prednost AI za dobro.

V zvezi s tem sem zagovornik poskusa uporabe umetne inteligence kot dela rešitve za težave z umetno inteligenco, pri čemer se na ta način razmišljanja borimo proti ognju z ognjem. Lahko bi na primer vgradili komponente etične umetne inteligence v sistem umetne inteligence, ki bo spremljal, kako preostala umetna inteligenca počne stvari in tako potencialno v realnem času ujela kakršna koli diskriminatorna prizadevanja, glejte mojo razpravo na povezava tukaj. Lahko bi imeli tudi ločen sistem umetne inteligence, ki deluje kot nekakšen nadzornik etike umetne inteligence. Sistem umetne inteligence služi kot nadzornik za sledenje in zaznavanje, kdaj gre druga umetna inteligenca v neetično brezno (glejte mojo analizo takšnih zmogljivosti na povezava tukaj).

Čez trenutek bom z vami delil nekaj splošnih načel, na katerih temelji etika umetne inteligence. Tu in tam je veliko tovrstnih seznamov. Lahko bi rekli, da še ni enotnega seznama univerzalne privlačnosti in soglasja. To je žalostna novica. Dobra novica je, da so vsaj na voljo seznami etike AI in so ponavadi precej podobni. Vse skupaj nakazuje, da z nekakšno obliko utemeljene konvergence iščemo pot do splošne skupnosti tega, iz česar je sestavljena etika umetne inteligence.

Najprej na kratko pokrijmo nekaj splošnih etičnih predpisov umetne inteligence, da ponazorimo, kaj bi moralo biti ključnega pomena za vsakogar, ki ustvarja, uporablja ali uporablja AI.

Na primer, kot je navedel Vatikan v Rim poziva k etiki umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih identificiranih šest primarnih etičnih načel AI:

  • Transparentnost: Načeloma morajo biti sistemi AI razložljivi
  • vključitev: Upoštevati je treba potrebe vseh človeških bitij, da bi lahko imeli koristi vsi in da bi lahko vsem posameznikom ponudili najboljše možne pogoje za izražanje in razvoj.
  • Odgovornost: Tisti, ki načrtujejo in uvajajo uporabo umetne inteligence, morajo delovati odgovorno in pregledno
  • Nepristranskost: Ne ustvarjajte in ne ravnajte v skladu s pristranskostjo, s čimer zaščitite pravičnost in človeško dostojanstvo
  • Zanesljivost: Sistemi umetne inteligence morajo biti sposobni delovati zanesljivo
  • Varnost in zasebnost: Sistemi AI morajo delovati varno in spoštovati zasebnost uporabnikov.

Kot navaja ameriško obrambno ministrstvo (DoD) v svojem Etična načela za uporabo umetne inteligence in kot sem poglobljeno obravnaval na povezava tukaj, to je njihovih šest primarnih etičnih načel AI:

  • Odgovorni: Osebje Ministrstva za obrambo bo izvajalo ustrezno raven presoje in skrbnosti, hkrati pa bo ostalo odgovorno za razvoj, uvajanje in uporabo zmogljivosti AI.
  • pravično: Oddelek bo sprejel premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih AI.
  • sledljivo: Zmogljivosti oddelka za umetno inteligenco bodo razvite in uporabljene tako, da ustrezno osebje ustrezno razume tehnologijo, razvojne procese in operativne metode, ki se uporabljajo za zmogljivosti umetne inteligence, vključno s preglednimi in preverljivimi metodologijami, viri podatkov ter postopki in dokumentacijo načrtovanja.
  • zanesljivo: Zmožnosti umetne inteligence ministrstva bodo imele izrecno, dobro opredeljeno uporabo, varnost, zaščita in učinkovitost takšnih zmogljivosti pa bodo predmet testiranja in zagotovila v okviru teh opredeljenih uporab v celotnem njihovem življenjskem ciklu.
  • Obvladljivo: Oddelek bo zasnoval in izdelal zmogljivosti umetne inteligence za izpolnjevanje predvidenih funkcij, hkrati pa bo imel zmožnost odkrivanja in izogibanja nenamernim posledicam ter možnost izklopa ali deaktiviranja razporejenih sistemov, ki kažejo nenamerno vedenje.

Razpravljal sem tudi o različnih kolektivnih analizah etičnih načel umetne inteligence, vključno s tem, da sem v prispevku z naslovom »Globalna pokrajina etičnih smernic za umetno inteligenco« zajel niz, ki so ga zasnovali raziskovalci in so preučili in strnili bistvo številnih nacionalnih in mednarodnih etičnih načel umetne inteligence. v Narava), in ki jo raziskujem na povezava tukaj, kar je pripeljalo do tega seznama ključnih kamnov:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Kot bi lahko neposredno uganili, je poskus določiti posebnosti, na katerih temeljijo ta načela, lahko zelo težko narediti. Še več, trud, da bi ta široka načela spremenili v nekaj povsem oprijemljivega in dovolj podrobnega, da bi ga lahko uporabili pri izdelavi sistemov AI, je tudi trd oreh. Na splošno je enostavno pomihati z roko o tem, kaj so predpisi etike umetne inteligence in kako jih je treba na splošno upoštevati, medtem ko je veliko bolj zapletena situacija v kodiranju umetne inteligence, ki mora biti prava guma, ki se sreča s cesto.

Načela etike umetne inteligence naj bi uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo razvojna prizadevanja umetne inteligence, in celo tistimi, ki končno izvajajo in vzdržujejo sisteme AI. Vse zainteresirane strani skozi celoten življenjski cikel razvoja in uporabe umetne inteligence se obravnavajo v okviru spoštovanja ustaljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da so "samo koderji" ali tisti, ki programirajo umetno inteligenco, podvrženi spoštovanju konceptov etike umetne inteligence. Kot smo že omenili, je za oblikovanje in uporabo umetne inteligence potrebna vas, za kar mora biti cela vas seznanjena in spoštovati etične predpise umetne inteligence.

Prepričajmo se tudi, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča. Tega nimamo. Ne vemo, ali bo inteligentna umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali se bo čuteča AI nekako čudežno spontano pojavila v obliki računalniške kognitivne supernove (običajno se imenuje singularnost, glejte moj prispevek na povezava tukaj).

Vrsta umetne inteligence, na katero se osredotočam, je sestavljena iz nečuteče umetne inteligence, ki jo imamo danes. Če bi želeli divje špekulirati o čuteč AI, ta razprava bi lahko šla v radikalno drugačno smer. Čuteča umetna inteligenca bi bila domnevno človeške kakovosti. Morali bi upoštevati, da je čuteča umetna inteligenca kognitivni ekvivalent človeka. Še več, ker nekateri špekulirajo, da bi lahko imeli superinteligentno umetno inteligenco, je možno, da bi bila takšna umetna inteligenca na koncu pametnejša od ljudi.

Naj bodo stvari bolj prizemljene in upoštevajmo današnjo računalniško nečutečo umetno inteligenco.

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se lahko pogovorne zmogljivosti zdijo podobne človeškim zmogljivostim, vendar je v resnici, da so računske in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje (ML) in globoko učenje (DL), ki izkoriščata ujemanje računalniških vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz človeku podobnih nagnjenj. Medtem pa danes ni nobene umetne inteligence, ki bi imela vtis zdrave pameti in niti kognitivnega čudenja močnega človeškega razmišljanja.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Vrnimo se k našemu fokusu na kloniranje glasu, ki temelji na AI.

Na nedavni konferenci je bila predstavitev Amazona namenjena predstavitvi zaželenih prednosti glasovnega kloniranja na osnovi umetne inteligence in poudarjanju najnovejše vrhunske umetne inteligence, ki se uporablja v Alexi za izboljšanje njenih zmogljivosti. Po poročanju novic naj bi bil pripravljen primer, ki naj bi bil prisrčen in optimističen, sestavljen iz tega, da je otrok Alexa prosil, naj mu babica prebere zgodbo o Čarovnik iz Oza. Občinstvu je bilo povedano, da je babica umrla in da je bil to način, da se otrok v bistvu ponovno poveže s svojim dragim starim staršem. Vse to je bilo očitno del videoposnetka, ki ga je sestavil Amazon za pomoč pri predstavitvi najnovejših dosežkov kloniranja glasu z umetno inteligenco razvojne ekipe Alexa (vključuje funkcije, ki še niso uradno predstavljene za javno uporabo).

Eden od odzivov na ta primer je, da smo lahko zelo ganjeni, da lahko otrok spet sliši glas svoje babice. Predvidevamo, da babica še ni posnela celotnega branja zgodbe, zato je kloniranje AI naredilo delo, da se zdi, kot da babica zdaj bere celotno zgodbo.

Izjemen in izjemen način za ponovno vzpostavitev stika z najdražjimi, ki jih ni več med nami.

Vsi novinarji in analitiki (in Twitter) niso bili tako nagnjeni k ugodni razlagi tega napredka. Nekateri so to označili za naravnost srhljivo. Poskus poustvariti glas pokojne ljubljene osebe naj bi bil nenavaden in nekoliko bizaren podvig.

Veliko vprašanj, kot so:

  • Bi se otrok zmedel in verjel, da je pokojna ljubljena oseba še živa?
  • Bi lahko otroka zdaj zapeljali v kakšno neljubo potegavščino ali prevaro v lažnem prepričanju, da je babica še z nami?
  • Ali lahko otrok trpi, ko posluša o pokojni ljubljeni osebi in postane malodušen, ko zdaj znova pogreša starega starša, kot bi odprl že zaležene čustvene rane?
  • Bo otrok mislil, da lahko pokojnik govori z druge strani, namreč da mu iz groba govori ta mistični glas, ki se zdi prav njegova babica?
  • Ali si je mogoče predstavljati, da bo otrok mislil, da je umetna inteligenca nekako utelešala njegovo babico in antropomorfizirala umetno inteligenco tako, da bo otrok odraščal v prepričanju, da lahko umetna inteligenca v celoti posnema ljudi?
  • Recimo, da se otrok tako navduši nad babičinim glasom, ki ga posnema AI, da postane obseden in uporablja glas za vse vrste poslušanja zvoka?
  • Ali se lahko prodajalec, ki posnema glas, odloči za uporabo tega glasu za druge, ki uporabljajo isti splošni sistem, pri čemer to počne brez izrecnega dovoljenja družine in tako "profitira" z zasnovanim glasom?
  • In tako naprej.

Pomembno se je zavedati, da lahko pričarate prav toliko negativa kot pozitiva, oziroma lahko rečemo toliko pozitivnega kot negativnega. Za tem napredkom umetne inteligence so kompromisi. Gledanje le na eno plat medalje je morda kratkovidno.

Ključno je zagotoviti, da obravnavamo vse strani teh vprašanj. Ne bodite zamegljeni v svojem razmišljanju. Lahko je preprosto raziskovati le pozitivne stvari. Lahko je enostavno raziskati le negativne stvari. Oboje moramo preučiti in ugotoviti, kaj je mogoče storiti, da upajmo, da izkoristimo pozitivne strani in poskušamo zmanjšati, odpraviti ali vsaj omiliti negativne.

Do neke mere je zato etika umetne inteligence in etična umetna inteligenca tako ključna tema. Navodila etike umetne inteligence nas spodbujajo, da ostanemo pozorni. Tehnologi umetne inteligence se lahko včasih ukvarjajo s tehnologijo, zlasti z optimizacijo visoke tehnologije. Ni nujno, da upoštevajo širše družbene posledice. Za ustvarjanje ustrezne umetne inteligence je bistvenega pomena imeti miselnost o etiki umetne inteligence, ki je vključena v razvoj in uporabo umetne inteligence.

Poleg uporabe Etike umetne inteligence se postavlja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence, kot so funkcije glasovnega kloniranja, ki temeljijo na umetni inteligenci. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel.

Ob tem nekateri trdijo, da ne potrebujemo novih zakonov, ki bi zajemali umetno inteligenco, in da naši obstoječi zakoni zadostujejo. Pravzaprav vnaprej opozarjajo, da bomo, če uveljavimo nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z omejevanjem napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti. Oglejte si na primer moje poročilo na povezava tukaj in povezava tukaj.

Stavim, da si na tem mestu te pomembne razprave želite nekaj ilustrativnih primerov, ki bi lahko predstavili to temo. Obstaja poseben in zagotovo priljubljen niz primerov, ki so mi pri srcu. Vidite, kot strokovnjak za umetno inteligenco, vključno z etičnimi in pravnimi posledicami, me pogosto prosijo, naj navedem realistične primere, ki prikazujejo dileme etike umetne inteligence, da bi lažje razumeli nekoliko teoretično naravo teme. Eno najbolj osupljivih področij, ki nazorno predstavlja to etično zagato umetne inteligence, je pojav resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci. To bo služilo kot priročen primer uporabe ali zgled za obsežno razpravo o tej temi.

Tu je potem omembe vredno vprašanje, o katerem je vredno razmisliti: Ali prihod resničnih samovozečih avtomobilov, ki temeljijo na umetni inteligenci, kaj razsvetli o glasovnem kloniranju, ki temelji na umetni inteligenci, in če da, kaj to prikazuje?

Dovolite mi trenutek, da razložim vprašanje.

Prvič, upoštevajte, da v pravem samovozečem avtomobilu ni človeški voznik. Upoštevajte, da se pravi samovozeči avtomobili vozijo prek sistema vožnje z umetno inteligenco. Za volanom ni potrebe po človeškem vozniku, niti ni predvideno, da bi človek vozil vozilo. Za moje obsežno in stalno pokritost avtonomnih vozil (AV) in zlasti samovozečih avtomobilov glej povezava tukaj.

Nadalje bi rad pojasnil, kaj je mišljeno, ko govorim o pravih samovozečih avtomobilih.

Razumevanje ravni samovozečih avtomobilov

Kot pojasnilo so pravi samovozeči avtomobili tisti, pri katerih umetna inteligenca vozi avto povsem sama in med vožnjo ni človeške pomoči.

Ta vozila brez voznika se štejejo za 4. in 5. stopnjo (glejte mojo razlago na tukaj povezava), medtem ko se avtomobil, ki zahteva, da človeški voznik sodeluje vozni napor, običajno šteje za stopnjo 2 ali 3. Avtomobili, ki si delijo nalogo vožnje, so opisani kot polavtonomni in običajno vsebujejo različne avtomatizirani dodatki, ki se imenujejo ADAS (Napredni sistemi za pomoč vozniku).

Pravega samovozečega avtomobila na stopnji 5 še ni in še ne vemo, ali bo to mogoče doseči, niti koliko časa bo trajalo do tja.

Medtem pa prizadevanja stopnje 4 postopoma poskušajo pridobiti nekaj oprijema z zelo ozkimi in selektivnimi preskusi javnih cest, čeprav obstajajo polemike o tem, ali je treba to testiranje dovoliti samo po sebi (vsi smo poskusni zajčki na življenje ali smrt v poskusu ki se dogaja na naših avtocestah in stranskih cestah, trdijo nekateri, glejte moj prispevek na tukaj povezava).

Ker je za avtonomne avtomobile potreben človeški voznik, sprejetje teh vrst avtomobilov ne bo bistveno drugače kot vožnja običajnih vozil, zato o tej temi samih ne bi bilo veliko novega (čeprav, kot boste videli V trenutku se naslednje točke na splošno uporabljajo).

Za polavtonomne avtomobile je pomembno, da je javnost treba opozoriti na moteč vidik, ki se pojavlja v zadnjem času, in sicer, da kljub tistim človeškim voznikom, ki objavljajo video posnetke, ki zaspijo za volanom avtomobila stopnje 2 ali 3 , vsi se moramo izogibati, da verjamemo, da lahko voznik med vožnjo polavtonomnega avtomobila odvzame njihovo pozornost vozniški nalogi.

Vi ste odgovorna za vozniška dejanja vozila, ne glede na to, koliko avtomatizacije se lahko vrže v nivo 2 ali 3.

Samovozeči avtomobili in kloniranje glasu na osnovi umetne inteligence

Pri pravih vozilih za samostojno vožnjo na nivoju 4 in ravni 5 ne bo človeškega voznika, ki bi bil vključen v nalogo vožnje.

Vsi potniki bodo potniki.

AI dela vožnjo.

Eden od vidikov, o katerem je treba takoj razpravljati, je dejstvo, da umetna inteligenca, ki je vključena v današnje sisteme za vožnjo umetne inteligence, ni občutljiva. Z drugimi besedami, umetna inteligenca je v celoti skupek računalniško zasnovanih programov in algoritmov in zagotovo ne more razmišljati na enak način kot ljudje.

Zakaj ta dodaten poudarek na AI ni čuten?

Ker želim poudariti, da pri razpravi o vlogi sistema za upravljanje umetne inteligence umetni inteligenci ne pripisujem človeških lastnosti. Upoštevajte, da v današnjih časih obstaja stalna in nevarna težnja po antropomorfizaciji umetne inteligence. V bistvu ljudje današnji umetni inteligenci pripisujejo človeško občutljivost, kljub nespornemu in nespornemu dejstvu, da taka umetna inteligenca še ne obstaja.

S tem pojasnilom si lahko predstavljate, da vozniški sistem AI v resnici nekako ne bo "vedel" o vidikih vožnje. Vožnjo in vse, kar zanjo pomeni, bo treba programirati kot del strojne in programske opreme samovozečega avtomobila.

Potopimo se v nešteto vidikov, ki se začnejo igrati na to temo.

Najprej se je treba zavedati, da niso vsi samovozeči avtomobili z umetno inteligenco enaki. Vsak proizvajalec avtomobilov in samovozeča tehnološka podjetja uporabljajo svoj pristop k oblikovanju samovozečih avtomobilov. Zato je težko podati izčrpne izjave o tem, kaj bodo sistemi za vožnjo z umetno inteligenco naredili ali ne.

Poleg tega lahko razvijalci, ki v resnici programirajo računalnik, da to storijo, pozneje, ko trdijo, da sistem vožnje AI, ne naredi nekaj posebnega. Korak za korakom se vozniški sistemi AI postopno izboljšujejo in razširjajo. Obstoječa omejitev danes morda ne bo več obstajala v prihodnji iteraciji ali različici sistema.

Upam, da je to zadostno število opozoril, ki bi podlagale to, kar bom povedal.

Skicirajmo scenarij, ki bi lahko izkoristil glasovno kloniranje na osnovi umetne inteligence.

Starš in njihov otrok se usedeta v samovozeči avto, ki temelji na AI. Odhajajo v lokalno trgovino z živili. Pričakuje se, da bo to razmeroma brezhibna vožnja. Samo tedenska vožnja do trgovine, čeprav je voznik sistem vožnje z umetno inteligenco in staršem ni treba voziti.

Za starša je to velika prednost. Namesto da bi se morali osredotočiti na krmiljenje in se ukvarjati z vožnjo, se lahko starši raje posvetijo svojemu otroku. Skupaj se lahko igrajo v avtonomnem vozilu in preživljajo čas cenjene narave. Medtem ko bi starša običajno motila vožnja in bi verjetno postal zaskrbljen in vznemirjen, ko bi se vozil po prometnih ulicah in imel opravka z drugimi norimi vozniki v bližini, se tukaj starš blaženo ne zaveda teh pomislekov in se s svojim dragocenim otrokom le čudovito pogovarja.

Starš govori z vozniškim sistemom AI in mu reče, naj jih odpelje v trgovino. V tipičnem scenariju bi se umetna inteligenca odzvala prek nevtralne zvočne izjave, ki bi jo lahko slišali prek današnje Alexe ali Sirija. AI lahko odgovori z navedbo, da je trgovina z živili oddaljena 15 minut vožnje. Poleg tega lahko umetna inteligenca navede, da jih bo samovozeči avto odložil čisto pred trgovino.

To bi lahko bila edina z glasom povezana dejavnost umetne inteligence v takem scenariju. Morda bo umetna inteligenca, ko se samovozeči avtomobil približa trgovini z živili, povedala nekaj o bližajočem se cilju. Ob izstopu iz avtonomnega vozila lahko pride tudi do glasovnega opomnika, da vzamete svoje stvari s seboj.

Pojasnil sem, da bodo nekateri vozni sistemi z umetno inteligenco tako rekoč klepetavi mački. Programirani bodo za bolj tekoče in nenehno komuniciranje s človeškimi jezdeci. Ko se usedete v vozilo za souporabo prevozov, ki ga vozi človek, včasih želite, da je voznik klepetav. Poleg tega, da vas pozdravijo, bi morda želeli, da vam povedo o lokalnih vremenskih razmerah ali morda opozorijo na druge kraje v okolici, ki si jih lahko ogledate. Ne bodo vsi želeli klepetave mačke, zato bi bilo treba AI oblikovati tako, da sodeluje v dialogih le, ko človek to zahteva, glejte mojo pokritost na povezava tukaj.

Zdaj, ko imam vse uveljavljeno, spremenimo stvari na majhen, a pomemben način.

Pretvarjajte se, da ima vozni sistem z umetno inteligenco funkcijo glasovnega kloniranja, ki temelji na umetni inteligenci. Predpostavimo tudi, da je starš predhodno zasedel glasovno kloniranje z umetno inteligenco, tako da je zagotovil zvočni izrezek otrokove babice. Presenečenje, si misli starš, da bom dal sistemu vožnje z umetno inteligenco govoriti, kot da je otrokova pokojna babica.

Med vožnjo do trgovine z živili sistem vožnje z umetno inteligenco sodeluje s staršem in otrokom, pri čemer ves čas izključno uporablja babičin kloniran glas.

Kaj mislite o tem?

Srhljivo ali nepozabno?

Zadevo bom nekoliko dvignil. Pripravi se. Pripnite varnostni pas.

Nekateri tako kot jaz verjamejo, da bomo otrokom sčasoma dovolili, da se sami vozijo v samovozečih avtomobilih, ki temeljijo na umetni inteligenci, glejte mojo analizo na povezava tukaj.

V današnjih avtomobilih, ki jih vozi človek, mora biti vedno prisotna odrasla oseba, ker zakon zahteva, da za volanom sedi odrasel voznik. Za vse praktične namene nikoli ne morete imeti otroka v premikajočem se avtu, ki je sam v vozilu (ja, vem, da se to dogaja, kot na primer ugledni 10-letni sin velike filmske zvezde, ki je pred kratkim vozil nazaj zelo drag avto v drug zelo drag avto, ampak vseeno so to redkosti).

Današnji starši bi verjetno odločno nasprotovali temu, da bi svojim otrokom dovolili, da se vozijo v samovozečem avtomobilu, v katerem ni odrasle osebe, ki bi služila kot nadzornik ali pazila na njihove otroke. Vem, da se zdi skoraj nemogoče zamisliti, vendar stavim, da bomo, ko bodo samovozeči avtomobili razširjeni, neizogibno sprejeli idejo, da bodo otroci med vožnjo v samovozečem avtomobilu brez odraslih.

Upoštevajte faktor udobja.

Ste v službi in vaš šef vas preganja, da opravite nalogo. Otroka morate pobrati iz šole in ga odpeljati na trening baseballa. Ste obtičali med kladivom in nakovalom, ker preveč ugajate svojemu šefu ali ne peljete svojega otroka na vadbo. Nihče drug, ki ga poznate, ni na voljo, da bi vašemu otroku priskrbel dvigalo. Če kaj drugega, zagotovo ne želite uporabljati storitve skupne vožnje, ki ima človeškega voznika, saj bi vas seveda skrbelo, kaj bi ta neznanec rekel ali naredil, ko bi peljal vašega otroka.

Brez težav, brez skrbi, samo uporabite samovozeči avto, ki temelji na umetni inteligenci. Na daljavo usmerite samovozeči avto, da gre po vašega otroka. Prek kamer samovozečega avtomobila lahko vidite in spremljate svojega otroka, kako vstopa v avtonomno vozilo. Poleg tega so na voljo kamere, obrnjene navznoter, in svojega otroka lahko opazujete med celotno vožnjo. To se zdi enako varno, če ne celo varnejše, kot prositi neznanega voznika, da priskrbi dvigalo za vašega otroka. Glede na to so nekateri upravičeno zaskrbljeni, da če gre vožnja po zlu, imate otroka prepuščenega samemu sebi in nobenega odraslega, ki bi mu takoj pomagal ali ga usmerjal.

Če pustimo ob strani številne pomisleke, predpostavimo, da sta isti starš in otrok, ki sem ju opisal v prejšnjem scenariju, v redu, da se otrok vozi brez prisotnosti starša. Samo sprejmite, da je to na koncu izvedljiv scenarij.

Tukaj je zaključni udarec.

Vsakič, ko se otrok vozi v samovozečem avtomobilu, ki temelji na umetni inteligenci, ga pozdravi in ​​komunicira z umetno inteligenco, saj ta uporablja kloniranje glasu, ki temelji na umetni inteligenci, in posnema glas otrokove pokojne babice.

Kaj menite o teh jabolkih?

Ko je bil starš prisoten tudi v samovozečem avtomobilu, bi morda lahko opravičili uporabo glasu z umetno inteligenco, saj je starš tam, da otroku svetuje, kaj se dogaja, ko zvok z umetno inteligenco govori. Ko pa starš ni prisoten, zdaj domnevamo, da je otrok idilično v redu z babičinim glasom.

To je vsekakor eden tistih trenutkov za premor, ko resno razmislimo, ali je to za otroka dobro ali slabo.

zaključek

Naredimo miselni eksperiment, da razmislimo o teh tehtnih zadevah.

Prosim, navedite tri trdne pozitiven razlogi za kloniranje glasu na osnovi umetne inteligence.

Počakal bom, da jih prideš gor.

Nato si omislite tri trdne negativna razlogov, ki spodkopavajo pojav kloniranja glasu na osnovi umetne inteligence.

Predvidevam, da ste se nekaj domislili.

Zavedam se, da lahko nedvomno navedete veliko več razlogov kot le tri, ki so tej tehnologiji naklonjeni ali ne. Ali po vašem mnenju slabosti odtehtajo pozitivne? Obstajajo tisti kritiki, ki trdijo, da bi morali takšna prizadevanja ovirati.

Nekateri želijo podjetjem preprečiti uporabo glasovnega kloniranja na osnovi umetne inteligence, čeprav se zavedajo, da je to ena od tistih klasičnih težav z udarcem po molu. Vsako podjetje, ki ga boste prenehali uporabljati, obstaja velika verjetnost, da ga bo začelo uporabljati kakšno drugo podjetje. Zamrzniti uro ali odstraniti tovrstno umetno inteligenco bo skoraj nemogoče izvesti.

V zadnji opombi o tej temi si za trenutek predstavljajte, kaj bi se lahko zgodilo, če bi nekoč lahko dosegli čutečo umetno inteligenco. Ne trdim, da se bo to zgodilo. Vseeno lahko špekuliramo in vidimo, kam bi to lahko pripeljalo.

Najprej razmislite o pronicljivem citatu o govorjenju in glasu. Znana beseda Madeleine Albright je: "Potrebovala sem precej časa, da sem razvila glas, in zdaj, ko ga imam, ne bom tiho."

Če smo sposobni ustvariti čutečo umetno inteligenco ali se čuteča nekako pojavi, tudi če je ne sprožimo neposredno, kakšen glas bi morala imeti ta umetna inteligenca? Predpostavimo, da lahko uporabi svoje glasovno kloniranje, ki temelji na umetni inteligenci, in posledično izdela kateri koli glas katerega koli človeka prek majhnega drobnega odrezka zvočnega vzorčenja, ki je lahko na voljo, kot ga izgovori ta človek. Takšna umetna inteligenca bi nato lahko spregovorila in vas preslepila, da ste verjeli, da je umetna inteligenca navidezno ta oseba.

Potem pa bo morda AI želel imeti svoj lasten glas in namenoma izoblikovati glas, ki bo povsem drugačen od vseh drugih človeških glasov, saj bo želel biti poseben na svoj očarljiv način.

Zaboga, to človeka pusti skoraj brez besed.

Vir: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- namenjen-za-uporabo-v-ai-avtonomnih-sistemih/