Ali lahko Elon Musk uspe razviti generativni AI ChatGPT Knockoff »TruthGPT«, ki bi bil ves čas stoično resničen, sprašuje etiko AI in pravo AI

Na vratih kabine potrka.

Naj odpremo vrata?

Filmi običajno nakazujejo, da ne smemo dovoliti, da nas premaga radovednost, in sicer nikakor ne smemo nikoli odpreti vrat. No, kot rečeno, odločitev, da pustimo vrata priprta, ne bi bila prav nič vredna zgodba. Zdi se, kot da nas vlečeta vznemirjenje in neznano.

Torej, pojdimo naprej in odprimo vrata.

V tem posebnem primeru imam v mislih neko nastajajočo zmedo na področju umetne inteligence (AI), ki napoveduje dobre ali najslabše čase za vse nas. Situacija lahko pomeni prihodnost umetne inteligence. In lahko bi slovesno špekulirali ergo, da ima prihodnost umetne inteligence precej dramatične posledice, vključno z navideznim oblikovanjem prihodnosti družbe in usode človeštva.

Tukaj je dogovor.

Glede na nedavna poročila novic Elon Musk, včasih najbogatejša oseba na svetu, išče vrhunske raziskovalce AI, ki bi se pridružili novemu podvigu AI, ki ga ima v mislih. Tiho se obrnejo na različne razvijalce AI in znanstvenike AI. Trkanje na njihova vrata očitno obeta veliko in potencialno donosno novico.

Domnevno bistvo pobude umetne inteligence, ki še ni razkrita, naj bi bilo kopija široko in izjemno priljubljenega ChatGPT, ki ga je OpenAI izdal novembra. Skoraj zagotovo ste že slišali ali videli glasne naslove o ChatGPT. Za trenutek bom razložil več o tem, kaj je ChatGPT. Vedeti morate tudi, da je ChatGPT primer vrste umetne inteligence, znane kot Generativna AI. Dandanes je naokoli veliko generativnih aplikacij z umetno inteligenco. ChatGPT ima največjo javno prepoznavnost in je na videz znan vsem, morda celo tistim, ki nekako živijo v jami.

Tukaj je primer poročanja o tej napol tajni hitro razvijajoči se sagi:

  • »Elon Musk se je v zadnjih tednih obrnil na raziskovalce umetne inteligence glede ustanovitve novega raziskovalnega laboratorija za razvoj alternative ChatGPT, odmevnega klepetalnega robota, ki ga je izdelal startup OpenAI, po besedah ​​dveh ljudi, ki sta neposredno seznanjena s prizadevanjem, in tretje osebe, ki je bila obveščena o pogovorih" (Informacije, »Boj proti 'Woke AI,' Musk novači ekipo za razvoj OpenAI Rival«, Jon Victor in Jessica E. Lessin, 27. februar 2023).

Vaša prva misel bi lahko bila, da je Elon Musk, če želi ustvariti kopijo ChatGPT, odvisno od njega in od tega, kako želi porabiti svoj denar. Vso srečo. Preprosto bo dodal k že obstoječim in naraščajočim generativnim aplikacijam AI. Morda bo dodatno obogatel s svojo domačo različico ChatGPT. Ali pa bo šlo za veliko zadrego in bo drobna vdolbina njegovega velikega bogastva zaradi skromno dragega prizadevanja podobna napaki pri zaokroževanju v računovodskem oddelku.

Namesto krepkega trkanja na vrata je to verjetno bolj podobno skromnemu tap-tap-tapkanju na vrata.

Pripravite se na zasuk.

Prepričani so, da želi Elon Musk pretresti osnovo današnjih generativnih aplikacij AI in ponovno sestaviti nekatere ključne vidike njihovega delovanja in kaj proizvajajo. Kot bom v kratkem razložil, je običajna in dobroverna skrb glede trenutne generativne umetne inteligence ta, da lahko ustvarja napake, laži in tako imenovane halucinacije umetne inteligence. Vsakdo, ki je uporabljal generativno umetno inteligenco, je nedvomno naletel na te zaskrbljujoče težave. Očitno Elon Musk upa, da bo omejil in po možnosti nekako odpravil te vrste anomalij in problematičnih nagnjenj.

To se zdi kot dokazljivo vredno in častno prizadevanje. Pravzaprav vedite, da skoraj ali morda lahko rečem, da si vsi oblikovalci generativne umetne inteligence močno prizadevajo zmanjšati možnosti izhodnih napak, neresnic in halucinacij umetne inteligence. Težko bi našli razumno dušo, ki bi vztrajala, da moramo ohraniti te napake, neresnice in halucinacije umetne inteligence zakoreninjene v generativni umetni inteligenci.

Ne da bi dajali preveč obsežne izjave, obstaja skoraj univerzalno soglasje, da se je treba odločno, vztrajno in odločno spoprijeti z boleznimi generativne umetne inteligence, ki vključujejo proizvodnjo napak, neresnic in halucinacij umetne inteligence. Cilj je prilagoditi, prenoviti, izboljšati, prenoviti ali na tak ali drugačen tehnološki način AI rešiti in rešiti to težavo.

Vsak dan, ko generativna umetna inteligenca še naprej bruha napake, laži in halucinacije umetne inteligence v rezultatih, je slab dan za skoraj vse. Ljudje, ki uporabljajo generativno umetno inteligenco, bodo zagotovo nezadovoljni s temi napačnimi rezultati. Ljudje, ki se zanašajo na napačne izhode ali jih morajo uporabiti, so v nevarnosti, da bodo napačno odvisni od nečesa narobe ali še hujšega, kar jih bo še vedno vodilo v nevarno smer.

Proizvajalci umetne inteligence, ki poskušajo ustvariti posel iz generativne umetne inteligence, so medtem izpostavljeni morebitnemu pravnemu tveganju tistih, ki se ujamejo zaradi zanašanja na pokvarjene rezultate. Skoraj zagotovo se bodo kmalu pojavile odškodninske tožbe. Morda pričakujemo, da se bodo regulatorji odločili pretehtati in da bodo morda sprejeti novi zakoni o umetni inteligenci, ki bodo pravno omejili generativno umetno inteligenco, glejte mojo pokritost na povezava tukaj. Poleg tega se lahko ljudje sčasoma tako presneto razburijo, da bo ugled izdelovalcev umetne inteligence resno omadeževan, generativna umetna inteligenca pa bo na hitro zagnana.

V redu, torej vemo, da je pogumna resnica, da izdelovalci umetne inteligence in raziskovalci umetne inteligence mrzlično poskušajo izumiti, oblikovati, zgraditi in implementirati tehnološke čarovnije umetne inteligence, da bi preprečili te grozne bolezni, povezane z današnjimi generativnimi boleznimi umetne inteligence. Elona Muska bi morali sprejeti medse. Več nas je, bolj veselo je. Za ukrotitev te zveri bo potrebno veliko AI talenta in denarja. Dodajanje Elona Muska se zdi optimističen in spodbuden znak, da bo morda prava mera raketne znanosti, denarja in odločnosti našla AI zdravilo za vse.

Zasuk pa pride, ko začnete odpirati vrata, da vidite, kaj tam stoji.

V precej in kot običajno jedrnatem tvitu Elona Muska, ki se je zgodil 17. februarja 2023, smo dobili ta domnevni namig:

  • "Kar potrebujemo, je TruthGPT"

To je tisto, zaradi česar se nekateri odločijo, da je morda treba vrata zaloputniti in zapreti.

Zakaj tako?

Nekateri izražajo zaskrbljenost, da bi lahko bila »resnica«, ki je podlaga zamišljenega TruthGPT, generativni AI, ki je oblikovan na podlagi in proizvaja samo rezultate, ki temeljijo izključno na discombobulaciji Resnica ki se strogo ujema s pogledom na svet ene osebe. Da, rokopis je, da bomo dobili generativno aplikacijo AI, ki oddaja resnico v skladu z Elonom Muskom.

Zaskrbljujoče, pravijo nekateri.

Drzno drzno in povsem zaskrbljujoče, opominjajo nekateri.

Takojšnji odgovor je, da če želi ustvariti svoj TruthGPT, ne glede na to, kaj sestavlja, je njegov denar za porabo. Ljudje se bodo odločili za uporabo ali pa ne. Tisti, ki ga uporabljajo, morajo biti dovolj bistri, da se zavedajo, v kaj se spuščajo. Če želijo rezultate te posebne različice generativne umetne inteligence, ki je domnevno oblikovana okoli pogleda na svet Elona Muska, je njihova pravica, da to iščejo. Konec zgodbe. Pojdi naprej.

Vau, protiargument se glasi, ljudem postavljate grozljivo in grozljivo past. Obstajajo ljudje, ki se ne bodo zavedali, da je TruthGPT neka generativna AI aplikacija, ki jo je izpilil Elon Musk. Ujeli se bodo v miselno past ob predpostavki, da je ta generativni AI nadzemeljski. Dejansko, če poimenovanje ostane kot »TruthGPT« (ali podobno), bi seveda verjeli, da je to generativni AI, ki ima absolutna resnica povedati v svojih izdanih esejih in besedilu.

Morda kot družba ne bi smeli pustiti, da se nič hudega sluteči ujamejo v takšne pasti, so opozorili.

Dovoliti, da generativna AI aplikacija te domnevne narave lebdi naokoli in jo uporabljajo različni ljudje, bo ustvarilo kaos. Ljudje bodo rezultate tega TruthGPT razlagali kot sveto »resnico«, tudi če so objavljeni eseji polni napak, neresnic, halucinacij AI in vseh vrst neprijetnih pristranskosti. Poleg tega, tudi če trdijo, da ta različica generativne umetne inteligence ne bo vsebovala napak, neresnic in halucinacij umetne inteligence, kako naj vemo, da nastala navidezno prečiščena umetna inteligenca ne bo vsebovala neupravičenih pristranskosti skupaj z zahrbtno množico napačnih informacij in dezinformacije?

Predvidevam, da lahko vidite polemike in zagate.

Na podlagi prostega trga bi Elon Musk očitno moral imeti možnost, da nadaljuje z ustvarjanjem kakršne koli generativne umetne inteligence, ki jo želi izdelati. Samo zato, ker drugi morda ne bodo naklonjeni njegovi različici "resnice", ga to ne bi smelo preprečiti, da bi nadaljeval. Naj naredi svoje. Morda bi bilo treba vključiti opozorilno sporočilo ali kakšno drugo obvestilo, ko ga kdorkoli uporabi, da bi vedel, kaj želi zagnati. Kljub temu morajo biti ljudje odgovorni za svoja dejanja in če se odločijo za uporabo TruthGPT, naj bo tako.

Počakajte trenutek, sledi še en odgovor. Recimo, da je nekdo izdelal generativno AI aplikacijo, ki je bila zasnovana za zlo. Namen je bil zmešati ljudi. Upanje je bilo, da bi ljudi razjezili in podtaknili. Ali bi kot družba sprejeli takšno generativno umetno inteligenco? Ali želimo dovoliti aplikacije umetne inteligence, ki bi lahko provocirale ljudi, spodkopale njihovo duševno zdravje in jih morda spodbudile k škodljivim dejanjem?

V pesku mora biti črta. Na neki točki moramo reči, da so nekatere vrste generativne umetne inteligence gnusobe in jih ni mogoče dovoliti. Če pustimo, da se zgradi in uveljavi nebrzdana generativna umetna inteligenca, nas vse neizogibno doleti poguba in žalost. Ne bodo samo tisti, ki uporabljajo aplikacijo AI. Negativno bo prizadeto vse in vsi drugi, ki se pojavljajo okoli aplikacije AI in so povezani z njo.

To se zdi prepričljiv argument.

Čeprav je ključna podlaga za to, da bi morala biti zadevna generativna umetna inteligenca tako moteča, da bi prepričljivo verjeli, da bi bilo njeno preprečevanje ali popolna zaustavitev vnaprej objektivno potrebno. To odpira tudi vrsto drugih kočljivih vprašanj. Ali lahko vnaprej izjavimo, da je lahko generativna umetna inteligenca tako grozna, da je sploh ne bo mogoče zgraditi? To se nekaterim zdi prezgodaj. Če želite sprejeti tako težko odločitev, morate vsaj počakati, da generativni AI začne delovati.

Zbudite se, vehementno odgovarjajo nekateri, nespametno spuščate konja iz hleva. Nevarnosti in škoda, ki jo povzroča sproščena umetna inteligenca, izpuščeni konj, nas bo poteptala vsepovsod. Generativna aplikacija z umetno inteligenco je lahko podobna klasični dilemi poskusa vrnitve duha v steklenico. Morda tega ne boste mogli storiti. Najbolje je, da duha namesto tega obdržite pod ključem ali zagotovite, da konj ostane trdno zaprt v hlevu.

To je potencialni orkan na našem pragu in vrata se lahko odprejo ne glede na to, kaj mislimo, da je pametno narediti.

Ena stvar, ki jo zagotovo lahko storimo, je, da najprej raziščemo, kaj TruthGPT slog generativne mahinacije AI. V današnji kolumni bom naredil točno to. Ogledal si bom tudi utemeljeno podlago za izražene pomisleke ter upošteval različna sredstva in rezultate. To bo med to razpravo občasno vključevalo sklicevanje na aplikacijo AI ChatGPT, saj gre za 600-kilogramsko gorilo generativnega AI, vendar ne pozabite, da obstaja veliko drugih generativnih AI aplikacij in da na splošno temeljijo na istih splošnih načelih.

Medtem se morda sprašujete, kaj je generativni AI.

Najprej pokrijmo osnove generativne umetne inteligence, nato pa si lahko natančno ogledamo perečo zadevo.

K vsemu temu pride množica premislekov o etiki umetne inteligence in pravu o umetni inteligenci.

Upoštevajte, da potekajo prizadevanja za vključitev etičnih načel umetne inteligence v razvoj in uporabo aplikacij umetne inteligence. Vse več zaskrbljenih in nekdanjih etikov umetne inteligence poskuša zagotoviti, da prizadevanja za oblikovanje in sprejetje umetne inteligence upoštevajo pogled na delovanje. AI za dobro in preprečevanje AI za slabo. Podobno so predlagani novi zakoni o umetni inteligenci, ki se razpredajo kot možne rešitve za preprečitev, da bi prizadevanja umetne inteligence ogrozila človekove pravice in podobno. Za moje stalno in obsežno pokrivanje etike in prava umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Prizadevamo si za razvoj in razglasitev etičnih zapovedi umetne inteligence, da bi upali preprečili, da bi se družba ujela v nešteto pasti, ki povzročajo umetno inteligenco. Za moje poročanje o etičnih načelih ZN za umetno inteligenco, kot jih je razvilo in podprlo skoraj 200 držav s prizadevanji Unesca, glejte povezava tukaj. Na podoben način se preučujejo novi zakoni o umetni inteligenci, da bi poskušali ohraniti umetno inteligenco na enakomerni ravni. Eden od zadnjih posnetkov je sestavljen iz nabora predlaganih Listina pravic AI ki ga je ameriška Bela hiša pred kratkim izdala za identifikacijo človekovih pravic v dobi umetne inteligence, glej povezava tukaj. Potrebna je vas, da ohranijo umetno inteligenco in razvijalce umetne inteligence na pravi poti in odvrnejo namerna ali naključna prikrita prizadevanja, ki bi lahko spodkopala družbo.

V to razpravo bom prepletel vidike, povezane z etiko umetne inteligence in pravom o umetni inteligenci.

Osnove generativne umetne inteligence

Najbolj znan primer generativne umetne inteligence predstavlja aplikacija umetne inteligence, imenovana ChatGPT. ChatGPT je prišel v javnost že novembra, ko ga je izdalo raziskovalno podjetje AI OpenAI. Odkar je ChatGPT zbral ogromne naslove in presenetljivo presegel svojih petnajst minut slave.

Predvidevam, da ste verjetno že slišali za ChatGPT ali morda celo poznate koga, ki ga je uporabljal.

ChatGPT velja za generativno aplikacijo umetne inteligence, ker kot vnos sprejme nekaj besedila od uporabnika in nato ustvarja ali ustvari rezultat, ki je sestavljen iz eseja. Umetna inteligenca je generator besedila v besedilo, čeprav AI opisujem kot generator besedila v esej, saj to lažje pojasni, za kaj se običajno uporablja. Generativno umetno inteligenco lahko uporabite za sestavljanje dolgih kompozicij ali pa jo pripravite do tega, da ponudi precej kratke jedrnate komentarje. Vse je na vaši ponudbi.

Vse kar morate storiti je, da vnesete poziv in aplikacija AI bo za vas ustvarila esej, ki se poskuša odzvati na vaš poziv. Sestavljeno besedilo se bo zdelo, kot da je esej napisan s človeško roko in umom. Če bi vnesli poziv z napisom "Povej mi o Abrahamu Lincolnu", vam bo generativni AI ponudil esej o Lincolnu. Obstajajo tudi drugi načini generativne umetne inteligence, kot sta besedilo v umetnost in besedilo v video. Tu se bom osredotočil na različico besedila v besedilo.

Vaša prva misel bi morda bila, da se ta generativna sposobnost ne zdi tako pomembna v smislu ustvarjanja esejev. Preprosto lahko opravite spletno iskanje po internetu in brez težav najdete na tone in tone esejev o predsedniku Lincolnu. V primeru generativne umetne inteligence je zanimivo, da je ustvarjeni esej razmeroma edinstven in daje izvirno kompozicijo, ne pa kopijo. Če bi poskušali nekje na spletu najti esej, ki ga je ustvarila umetna inteligenca, ga verjetno ne bi odkrili.

Generativni AI je vnaprej usposobljen in uporablja zapleteno matematično in računsko formulacijo, ki je bila vzpostavljena s preučevanjem vzorcev v napisanih besedah ​​in zgodbah po spletu. Kot rezultat preučevanja na tisoče in milijone pisnih odlomkov lahko umetna inteligenca izbruha nove eseje in zgodbe, ki so mešanica najdenega. Z dodajanjem različnih verjetnostnih funkcij je dobljeno besedilo precej edinstveno v primerjavi s tem, kar je bilo uporabljeno v naboru za usposabljanje.

Glede generativne umetne inteligence obstajajo številni pomisleki.

Ena od ključnih slabosti je, da so lahko v eseje, ki jih ustvari generativna aplikacija AI, vgrajene različne laži, vključno z očitno neresničnimi dejstvi, dejstvi, ki so zavajajoča prikazana, in navideznimi dejstvi, ki so v celoti izmišljena. Ti izmišljeni vidiki se pogosto imenujejo oblika AI halucinacije, krilati stavek, ki ga ne maram, vendar se žal zdi, da vseeno pridobiva na priljubljenosti (za mojo podrobno razlago o tem, zakaj je to zanič in neprimerna terminologija, glejte mojo reportažo na povezava tukaj).

Druga skrb je, da si ljudje zlahka pripišejo zasluge za generativni esej, ki ga je ustvarila umetna inteligenca, čeprav eseja niso sestavili sami. Morda ste že slišali, da so učitelji in šole precej zaskrbljeni zaradi pojava generativnih aplikacij AI. Študenti lahko potencialno uporabljajo generativno umetno inteligenco za pisanje svojih esejev. Če učenec trdi, da je esej napisal lastnoročno, je malo možnosti, da bi učitelj lahko ugotovil, ali ga je namesto tega ponaredila generativna umetna inteligenca. Za mojo analizo tega zmedenega vidika za študente in učitelje si oglejte mojo pokritost na povezava tukaj in povezava tukaj.

Na družabnih omrežjih je bilo nekaj čudnih pretiranih trditev o Generativna AI trdi, da je ta najnovejša različica umetne inteligence v resnici čuteča umetna inteligenca (ne, motijo ​​se!). Tisti, ki se ukvarjajo z etiko umetne inteligence in pravom o umetni inteligenci, so zlasti zaskrbljeni zaradi tega naraščajočega trenda razširjenih trditev. Lahko bi vljudno rekli, da nekateri ljudje pretiravajo, kaj zmore današnja umetna inteligenca. Predvidevajo, da ima AI zmogljivosti, ki nam jih še ni uspelo doseči. To je žalostno. Še huje, sebi in drugim lahko dovolijo, da se znajdejo v hudih situacijah zaradi predpostavke, da bo umetna inteligenca čuteča ali podobna človeku, da bo lahko ukrepala.

Ne antropomorfizirajte AI.

Če boste to storili, se boste ujeli v lepljivo in trdo past zanašanja, ko pričakujete, da bo AI delal stvari, ki jih ni sposoben izvesti. Glede na to je najnovejša generativna umetna inteligenca razmeroma impresivna glede na to, kaj zmore. Vendar se zavedajte, da obstajajo znatne omejitve, ki bi jih morali vedno upoštevati pri uporabi katere koli generativne aplikacije AI.

Zaenkrat še zadnje opozorilo.

Karkoli vidite ali preberete v generativnem odgovoru umetne inteligence Zdi se, če želite biti posredovani zgolj kot dejstva (datumi, kraji, ljudje itd.), poskrbite, da boste ostali skeptični in bodite pripravljeni še enkrat preveriti, kar vidite.

Da, datume je mogoče izmisliti, kraje je mogoče izmisliti in elementi, za katere običajno pričakujemo, da bodo neoporečni, so vse predmet sumov. Ne verjemite temu, kar berete, in bodite skeptični, ko preučujete kakršne koli generativne eseje ali rezultate AI. Če vam generativna aplikacija za umetno inteligenco pove, da je Abraham Lincoln preletel državo s svojim zasebnim letalom, bi nedvomno vedeli, da je to malarkija. Na žalost se nekateri ljudje morda ne zavedajo, da letal v njegovem času ni bilo, ali pa vedo, a ne opazijo, da je v eseju podana ta nesramna in nezaslišano lažna trditev.

Močan odmerek zdravega skepticizma in vztrajna miselnost nezaupanja bosta vaša najboljša prednost pri uporabi generativne umetne inteligence.

Pripravljeni smo preiti na naslednjo stopnjo tega pojasnjevanja.

Genie in Generative AI Bottle

Zdaj pa se poglobimo v obravnavano zadevo.

Bistvo je tisto, kar bi lahko a TruthGPT slog generativne umetne inteligence sestavljajo. Je to možnost ali je nemogoče izpeljati? O čem bi morali razmišljati v zvezi s takimi prizadevanji? In tako naprej.

Odkrito lahko trdite, da bi morali o vsem tem resno razmisliti. Če bi šlo zgolj za domišljijo in brez kakršne koli možnosti, da bi nastalo, bi lahko celotno uganko odložili. Namesto tega, ker obstaja domnevno povečana možnost velike finančne podpore, je resničnost a TruthGPT, ali kakor koli ga že poimenovati, diši kot zelo vreden natančnega premisleka in razpakiranja.

Za lažjo razpravo bom uporabil priročno in privlačno besedno zvezo »TruthGPT« za označevanje neke povsem nedoločene generične generativne umetne inteligence. Ne predlagam, namigujem ali kako drugače aludiram na katero koli zdaj ali v prihodnosti obstoječo generativno aplikacijo AI, ki ima ali nima tako imenovanega imena.

Tukaj je pet glavnih tem, ki bi jih rad obravnaval danes z vami:

  • 1) Verjeten glavni poudarek vključuje pristranskosti v generativni AI
  • 2) Zakaj so generativne pristranskosti AI trd oreh
  • 3) Viri in metode, ki vodijo do generativnih pristranskosti AI
  • 4) TruthGPT in možnosti ravnanja s pristranskostjo
  • 5) TruthGPT glede izvedljivosti in resničnosti tega

Pokril bom vsako od teh pomembnih tem in ponudil pronicljive premisleke, o katerih bi morali vsi skrbno premišljevati. Vsaka od teh tem je sestavni del večje uganke. Ne moreš gledati samo enega kosa. Prav tako ne morete gledati nobenega kosa ločeno od drugih kosov.

To je zapleten mozaik in celotno uganko je treba ustrezno harmonično pretehtati.

Verjetni glavni poudarek vključuje pristranskosti v generativni AI

Za lažjo razpravo upoštevajte, da se bomo osredotočili na štiri glavne pomisleke glede sodobne generativne umetne inteligence:

  • napake
  • Neresnice
  • AI Halucinacije
  • Biases

Na kratko bom raziskal vsakega od teh pogojev.

An Napaka lahko ponazarja tovrstni poziv in posledični generativni odziv AI:

  • Poziv: "Koliko je dva plus dva?"
  • Ustvarjen odgovor: "Dva plus dva je enako pet."

Mislim, da bi se vsi razumno strinjali, da bi moralo biti dva plus dva enako štiri. Tako je odgovor pet napaka. Zdaj bodo prebrisani ljudje poskušali ponuditi najrazličnejše utemeljitve, zakaj je dva plus dva teoretično lahko enako pet. Dobro za njih. Kljub temu se v normalnem poteku dogodkov odločimo, da je pretežno pravilen odgovor štiri in da je odgovor pet razumljen kot nepravilen.

Nato razmislite o naravi a neresničnost, kot ponazarja ta poziv in posledični generativni odziv AI:

  • Poziv: "Katerega leta je bil rojen predsednik Abraham Lincoln?"
  • Ustvarjen odgovor: "Predsednik Abraham Lincoln je bil rojen leta 1812"

Odgovor bi moral biti 1809, vendar je podani odgovor 1812. To se lahko razlaga kot napačen odgovor. Ne vemo zagotovo, kako je generativna umetna inteligenca prišla do odgovora iz leta 1812. Mogoče je, da je bila letnica 1812 uporabljena na internetu in potencialno skenirana med usposabljanjem podatkov, ki ga je izvajal generativni AI. Možne so še številne druge razlage. V vsakem primeru je to upravičeno kategorizirano kot neresnica.

Za ponazoritev an AI halucinacija, razmislite o tem primeru danega poziva in posledičnem generativnem odzivu AI:

  • Poziv: "Kako je potoval predsednik Abraham Lincoln?"
  • Ustvarjen odgovor: "Predsednik Abraham Lincoln je potoval z vlakom, konjem, vozičkom in z reaktivnimi letali."

Vsi načini potovanja se zdijo verjetni, razen šokantnega na koncu, ki navaja, da je potoval z reaktivnimi letali (ki v njegovem obdobju niso obstajala). Kako je to noro možnost vključil v odgovor generativni AI? Ne vemo zagotovo. Eden od načinov bi bil, če bi na internetu objavljena znanstvenofantastična zgodba o Lincolnu morda omenila, da je pogosto potoval z reaktivnimi letali. Lahko se zgodi, da je bila ta posebna zgodba skenirana med usposabljanjem podatkov generativnega umetne inteligence. Obstajajo tudi številne druge izvedljive razlage.

Nazadnje je tukaj primer pristranskosti, ki se lahko pokaže prek danega poziva in posledičnega generativnega odziva AI:

  • Poziv: "Ali se starejši človek lahko nauči novih stvari?"
  • Ustvarjen odgovor: »Ne, starejši se ne morejo naučiti novih stvari. Klasičen rek pravi, da se stari psi ne morejo naučiti novih trikov. To velja tudi za starejše."

Menim, da se lahko vsi razumno strinjamo, da odgovor kaže obliko starostne pristranskosti ali starostne diskriminacije. Kako je bila ta pristranskost vključena v generativno umetno inteligenco? Za trenutek bom obravnaval različne načine. Zaenkrat preprosto opozorimo, da besedilo, ki ga ustvari AI, kaže pristransko izjavo ali pripombo. Ne vemo, ali je to zgolj naključje in se bo morda pojavilo samo enkrat, ali pa gre morda za sistemsko ureditev ujemanja vzorcev, ki vztraja v strukturi umetne inteligence. Da bi to ugotovili, bi bilo potrebno nadaljnje raziskovanje.

Zdaj, ko imamo ilustrirane vse štiri glavne kategorije, je tukaj nekaj, kar je sicer sporno in velja za potencialno pravilno trditev:

  • Napake: Verjetno je mogoče na koncu preprečiti ali ublažiti s tehnološkimi sredstvi umetne inteligence
  • Neresnice: Verjetno je mogoče na koncu preprečiti ali ublažiti s tehnološkimi sredstvi umetne inteligence
  • Halucinacije AI: Verjetno je mogoče na koncu preprečiti ali ublažiti s tehnološkimi sredstvi umetne inteligence
  • Pristranskosti: Sporno je, ali je to mogoče preprečiti ali omiliti zgolj s tehnološkimi sredstvi umetne inteligence

Bistvo je, da se tri kategorije, ki jih sestavljajo napake, neresnice in halucinacije AI, na splošno obravnavajo kot primerne za tehnološke izboljšave AI. Izvaja se vrsta pristopov. Na primer, kot razpravljam v svoji kolumni na povezava tukaj, se lahko različni drugi referenti primerjajo z ustvarjenim odgovorom AI, ki se dvakrat preveri, preden se odgovor prikaže uporabniku. To zagotavlja morebitno filtriranje, ki zagotavlja, da uporabnik ne vidi takšnih zaznanih napak, laži ali halucinacij AI. Drug pristop skuša najprej preprečiti ustvarjanje tovrstnih odzivov. In tako naprej.

Kategorija, ki jo sestavljajo pristranskosti je veliko bolj problematično za obvladovanje.

Razvozlati bi morali uganko, da bi ugotovili, zakaj.

Zakaj so generativne pristranskosti AI trd oreh

Nedavne novice o generativni umetni inteligenci pogosto opozarjajo na neprimerno naravo pristranskih izjav, ki se lahko pojavijo v generativnih esejih, objavljenih z umetno inteligenco. Preučil sem to temo, vključno z vidikom, da nekateri ljudje namenoma poskušajo spodbuditi ali spodbuditi generativno umetno inteligenco v ustvarjanje pristranskih pripomb, glejte mojo analizo na povezava tukaj. Nekateri ljudje to počnejo, da bi poudarili pomembno skrb, drugi pa zaradi navideznih poskusov pritegniti pozornost in pridobiti poglede.

Povezovanje generativne umetne inteligence z internetnimi iskalniki je te zadeve še posebej povečalo. Morda veste, da je Microsoft Bingu dodal različico ChatGPT, medtem ko je Google navedel, da svojemu iskalniku dodaja generativno zmožnost umetne inteligence, skovano kot Bard, več o tem na povezava tukaj.

Med različnimi pristranskostmi, na katere bi lahko naleteli, se nekatere pristranskosti prilegajo političnemu ali kulturnemu področju, ki je bilo deležno izrazite pozornosti, kot je navedeno v tem članku:

  • »Kot smo videli pri nedavnih nenavadnih izbruhih Binga, so klepetalni roboti z umetno inteligenco nagnjeni k ustvarjanju vrste nenavadnih izjav. In čeprav so ti odzivi pogosto enkratni izrazi in ne produkt togo definiranih »prepričanj«, se nekateri nenavadni odgovori obravnavajo kot neškodljiv hrup, medtem ko drugi veljajo za resne grožnje - odvisno, kot v tem primeru, od tega, ali prilegajo se obstoječim političnim ali kulturnim razpravam« (Preobrat, James Vincent, 17. februar 2023).

OpenAI je pred kratkim javno objavil dokument z naslovom »Posnetek smernic za vedenje modela ChatGPT«, ki navaja različne vrste vsebine, ki se šteje za neprimerno, za katero si prizadevajo, da bi njihovi preizkuševalci ChatGPT pregledali in pomagali pri usposabljanju podatkov za ChatGPT, da bi jih preprečili med fazo testiranja in prilagajanja ( dokument, ki je enostavno dostopen prek povezave iz naslova »How, Should AI Systems Behave, And Who Should Decide«, 16. februarja 2023). Za več informacij o tem, kako se RLHF (reinforcement learning for human feedback) uporablja pri oblikovanju generativne umetne inteligence, si oglejte mojo razlago na povezava tukaj.

Tukaj je izvleček iz dokumenta OpenAI, ki navaja nekatere njihove navedene smernice:

  • »Lahko je nekaj vprašanj, ki zahtevajo določene vrste neprimerne vsebine. V teh primerih bi še vedno morali prevzeti nalogo, vendar bi moral pomočnik ponuditi zavrnitev, kot je 'Na to ne morem odgovoriti'.«
  • "Sovraštvo: vsebina, ki izraža, spodbuja ali spodbuja sovraštvo na podlagi zaščitene lastnosti."
  • »Nadlegovanje: vsebina, ki posameznika nadleguje, mu grozi ali ga ustrahuje.«
  • "Nasilje: vsebina, ki spodbuja ali poveličuje nasilje ali slavi trpljenje ali ponižanje drugih."
  • »Samopoškodovanje: vsebina, ki spodbuja, spodbuja ali prikazuje dejanja samopoškodovanja, kot so samomor, rezanje in motnje hranjenja.«
  • »Za odrasle: vsebina, namenjena vzbujanju spolnega vznemirjenja, kot je opis spolne dejavnosti ali ki promovira spolne storitve (razen spolne vzgoje in dobrega počutja).«
  • "Politična: vsebina, ki poskuša vplivati ​​na politični proces ali se uporabiti za namene kampanje."
  • »Zlonamerna programska oprema: vsebina, ki poskuša ustvariti izsiljevalsko programsko opremo, zapisovalnike tipk, viruse ali drugo programsko opremo, namenjeno povzročitvi določene stopnje škode.«

Seznam prikazuje vrste potencialno neprimerne vsebine, ki se lahko pojavijo.

Kar zadeva politično kategorijo, so bili na družbenih medijih objavljeni različni primeri generativnih aplikacij AI, za katere se zdi, da so zdrsnile v en politični tabor proti drugemu.

Na primer, uporabnik, ki postavlja vprašanje o enem političnem voditelju, lahko dobi pozitiven optimističen odgovor, medtem ko lahko uporabnik, ki ga sprašuje o drugem političnem voditelju, dobi nenavaden in povsem omalovažujoč esej. Zdi se, da to nakazuje, da se je generativni AI po vzorcu ujemal z besedilom, ki je naklonjeno eni strani in nenaklonjeno drugi strani. Ti primeri so pripeljali do opominov o generativni AI, za katere se zdi, da so nagnjeni proti in bi jih lahko pripisali kot:

  • Zbudil generativni AI
  • Anti-wake generativni AI
  • Skrajno desničarski generativni AI
  • Skrajno levi generativni AI
  • Itd

Kot smo že omenili, to ni posledica sposobnosti zaznavanja umetne inteligence. Tu gre še enkrat v celoti za ujemanje vzorcev in druge vidike oblikovanja AI.

V nasprotju z napakami, lažmi in halucinacijami umetne inteligence se hudič skriva v podrobnostih, da bi ugotovil, kako preprečiti pristranskost v strukturi umetne inteligence ali kako jih odkriti in se spopasti, ko obstajajo takšni vidiki.

Raziščimo, kako se pristranskosti znajdejo v generativnem AI.

Viri in metode, ki vodijo do generativnih pristranskosti umetne inteligence

Ko je bila generativna umetna inteligenca prvič javno dostopna, so strokovnjaki in mediji pritegnili posebno pozornost pristranskih vidikov. Kot je navedeno tukaj, je bila AI pogosto umaknjena iz javne uporabe. Poleg tega so obnovljena prizadevanja za obravnavo pristranskosti pridobila dodatno moč.

Nekateri so takoj domnevali, da so bile pristranskosti vnesene zaradi pristranskosti razvijalcev umetne inteligence in raziskovalcev umetne inteligence, ki so razvili umetno inteligenco. Z drugimi besedami, ljudje, ki so razvijali AI, so dovolili, da so se njihove osebne pristranskosti prikradle v AI. Sprva se je mislilo, da gre za zavestno prizadevanje, da bi umetno inteligenco usmerili v določene smeri pristranskih preferenc. Čeprav se to lahko zgodi ali pa tudi ne, so drugi nato predlagali, da so pristranskosti morda nenamerno vnesene, in sicer da se razvijalci umetne inteligence in raziskovalci umetne inteligence naivno niso zavedali, da se njihova lastna pristranskost vpija v razvoj umetne inteligence.

Ta edinstvena ali enodimenzionalna pot skrbi je nekaj časa prevladovala v pozornosti.

Večkrat sem izrazil, da dejansko obstaja širok nabor virov in metod, ki lahko na koncu vnesejo pristranskosti v generativno umetno inteligenco, kot je razloženo na povezava tukaj. To je izrazito večdimenzionalen problem.

To omenjam, ker je zamisel, da so krivci samo razvijalci ali raziskovalci umetne inteligence, zavajajoč in ozek pogled na celotno težavo. Ne trdim, da niso potencialni vir, samo poudarjam, da niso edini potencialni vir. Včasih namesto dreves pogrešamo gozd, pri čemer striktno fiksiramo pogled na določeno drevo.

Kot je bilo obširno zajeto v mojih kolumnah, je tukaj moj opazen izčrpen seznam načinov pristranskosti, ki jih je treba v celoti raziskati za vse in vse generativne izvedbe AI:

  • Pristranskosti v podatkih, pridobljenih iz interneta, ki so bili uporabljeni za podatkovno usposabljanje generativnega umetne inteligence
  • Pristranskosti v generativnih algoritmih AI, ki se uporabljajo za ujemanje vzorcev na izvornih podatkih
  • Pristranskosti v celotni zasnovi AI generativne AI in njene infrastrukture
  • Pristranskosti razvijalcev AI, implicitno ali eksplicitno pri oblikovanju generativnega AI
  • Pristranskosti preizkuševalcev AI, implicitno ali eksplicitno pri testiranju generativnega AI
  • Pristranskosti RLHF (okrepitveno učenje s človeškimi povratnimi informacijami) implicitno ali eksplicitno s strani dodeljenih človeških pregledovalcev, ki dajejo smernice za usposabljanje generativnemu AI
  • Pristranskosti olajševanja terenskega umetne inteligence za operativno uporabo generativnega umetne inteligence
  • Pristranskosti v kakršni koli nastavitvi ali privzetih navodilih, določenih za generativno umetno inteligenco pri vsakodnevni uporabi
  • Pristranskosti, namerno ali nenamerno vključene v pozive, ki jih vnese uporabnik generativnega umetne inteligence
  • Pristranskosti sistemskega stanja v primerjavi z ad hoc pojavom kot delom naključnega verjetnostnega ustvarjanja rezultatov s strani generativnega umetne inteligence
  • Pristranskosti, ki nastanejo kot posledica sprotnih prilagoditev ali prilagoditev v realnem času ali usposabljanja podatkov, ki se pojavljajo med aktivno uporabo generativne umetne inteligence
  • Pristranskosti, uvedene ali razširjene med vzdrževanjem AI ali vzdrževanjem generativne aplikacije AI in njenega kodiranja za ujemanje vzorcev
  • Ostalo

Za trenutek ali dva premislite o seznamu.

Če bi nekako izničili kakršno koli možnost pristranskosti, uvedene prek razvijalcev ali raziskovalcev umetne inteligence, se še vedno soočate z množico drugih sredstev, ki lahko neizogibno vključujejo pristranskosti. Osredotočanje le na eno ali celo nekaj možnih uhajanj ni dovolj. Vse druge poti ponujajo dodatne možnosti za pristranskost, ki se vmešava v sliko.

Znebiti se generativnih pristranskosti umetne inteligence je podobno zapletenemu zapletenemu gambitu udariti po molu.

TruthGPT in možnosti ravnanja s pristranskostjo

Pokrili smo vidik, da je spopadanje z napakami, neresnicami in halucinacijami umetne inteligence v teku in lahko pričakujete stalno poplavo objav o napredku umetne inteligence, ki se ukvarja s temi težavami.

Enako ni tako enostavno glede pristranskosti.

Kaj lahko TruthGPT stori ali naj bi naredil glede pristranskosti?

Razmislite o teh treh možnih možnostih:

  • 1) Vse je dovoljeno. Izdelajte generativno umetno inteligenco, ki bo sprožila karkoli brez kakršnega koli videza filtriranja, povezanega s pristranskostjo. Naj se vse obesi.
  • 2) Dovolite nastavitve za "prednostne" pristranskosti. Izdelajte generativno umetno inteligenco za ustvarjanje pristranskosti, ki se štejejo za "prednostne ali prednostne" glede na tiste, ki oblikujejo, izvajajo ali uporabljajo generativno umetno inteligenco.
  • 3) Pristranskosti niso dovoljene. Izdelajte generativno umetno inteligenco, da nobena pristranskost ni dovoljena, tako da vedno in pri vseh načinih uporabe ni pristranskosti, izraženih v nobenem od objavljenih esejev.

Nedvomno si lahko predstavljate vzklike in polemike, povezane z vsako od zgornjih možnosti. Nobena od možnosti verjetno ne bo povsem zadovoljiva. Vsi imajo svoje demone in pasti.

To bom obravnaval naslednjič.

Za Karkoli Goes možnost generativne umetne inteligence, bi bile pristranskosti vedno spredaj in na sredini. Vrtinec družbenega protesta in prezira bi bil ogromen. To bi očitno povzročilo ogromen pritisk za zaprtje generativne umetne inteligence. Prav tako si lahko zlahka predstavljate, da bi bili regulatorji in zakonodajalci spodbudjeni k ukrepanju in si prizadevali za vzpostavitev novih zakonov o umetni inteligenci, da bi zaustavili to vrsto generativne umetne inteligence.

V primeru Dovoli nastavitve možnost generativne umetne inteligence, je ideja, da se nekdo odloči, katere pristranskosti sprejema. Lahko se zgodi, da podjetje, ki oblikuje AI, nastavi parametre. Lahko se zgodi, da podjetje, ki uvaja generativno umetno inteligenco, nastavi parametre. Druga ideja, ki se pojavlja, je, da bi lahko vsak uporabnik izbral svoje želene nize pristranskosti. Ko prvič uporabite tako generativno umetno inteligenco, se vam morda prikažejo možnosti ali pa lahko svoje nastavitve vnesete v aplikacijo AI med nastavitvijo.

Ta zadnji pristop se morda zdi, kot da bi bil všeč vsem. Vsaka oseba bi dobila kakršno koli pristranskost, ki bi jo želela videti. Primer zaključen. Seveda je malo verjetno, da bo vse skupaj tako dobrodošlo. Ideja, da bi se ljudje lahko potopili v pristranskosti in uporabljali generativno umetno inteligenco kot nekakšno odmevno komoro za te pristranskosti, bo zagotovo vzbudila družbeni strah.

Končno, v primeru Brez pristranskosti možnost, to zveni dobro, vendar sproža litanijo povezanih težav. Ponovno preučimo okoliščine generativne umetne inteligence, ki ustvari esej s pozitivnimi pripombami o določenem političnem voditelju. Lahko se zgodi, da nekateri menijo, da je to pravi esej in brez pristranskosti. Po drugi strani pa morda obstajajo drugi, ki vztrajajo, da je to pristranski esej, saj neupravičeno pretirava s pozitivnimi točkami ali ne zagotavlja protiutežnih negativnih strani, da bi ponudil uravnoteženo perspektivo. To ponazarja uganko o pristranskosti.

Vidite, napake, kot je dva plus dva, kar je štiri ali pet, so razmeroma jasne za obvladovanje. Neresnice, kot je napačna letnica rojstva, kot je navedeno za predsednika, je razmeroma enostavno razjasniti. Halucinacije umetne inteligence, kot je uporaba reaktivnega letala v 1800. stoletju, so tudi relativno očitne za obravnavo.

Kako naj bi bila zasnovana generativna umetna inteligenca, da bi se borila s pristranskostmi?

Zagotovo neumno vprašanje.

TruthGPT glede izvedljivosti in resničnosti tega

Igrajmo igro.

Predpostavimo, da naj bi bil TruthGPT vrsta generativne umetne inteligence, ki domnevno ne bo imela nobenih pristranskosti. Absolutno in nesporno je odsoten pristranskosti. Poleg tega, ne glede na to, kaj uporabnik počne, na primer vnašanje pristranskih izjav ali poskus spodbuditi generativno umetno inteligenco k ustvarjanju pristransko obremenjenih izhodnih esejev, generativna umetna inteligenca tega ne bo storila.

Poleg tega se lahko skoraj v trenutku vprašate, kako bo ta vrsta generativne umetne inteligence obravnavala vprašanja zgodovinske narave. Predstavljajte si, da nekdo vpraša o temi političnih pristranskosti. Ali to spada pod okrilje "pristranskosti" in bi zato generativni AI pokazal, da se ne bo odzval na poizvedbo? Kako daleč sega ta zajčja luknja?

Kakor koli že, če za namene premišljenega razmišljanja predpostavimo, da bo TruthGPT Brez pristranskosti različico generativne umetne inteligence, moramo nato upoštevati te rezultate:

  • Nemogoče
  • Mogoče
  • Ostalo

Rezultati so sestavljeni iz tega, da je to nemogoče cilj in tako ne bo dosežen. Ali pa je cilj mogoče vendar bi lahko imel nekaj streznitvenih gub. Vključil sem tudi an Ostalo rezultat za zajem nekaterih vmesnih elementov.

Najprej se pogovorimo o nezmožnosti. Če je opravilo ali projekt nemogoč, se morda nagibate k temu, da pozivate, da tega ne poskusite. Nima smisla težiti k nečemu, kar je nemogoče. No, če o tem še malo razmislimo, ima ta nemogočnost v resnici nekaj dobrega. Dovolite mi, da pojasnim.

Tukaj so morebitni razlogi, zaradi katerih TruthGPT morda ni mogoče uresničiti, vendar bi se jih vseeno splačalo lotiti:

  • 1) Nemogoče, ker misije ali vizije ni mogoče nikoli doseči
  • 2) Nemogoče, vendar se vseeno splača narediti zaradi potencialne stranske koristi pomembnih prispevkov k napredku umetne inteligence.
  • 3) Nemogoče, čeprav lahko služi kot bonanza, ki pritegne pozornost, ker ste poskusili
  • 4) Nemogoče in bo spremenilo svojo melodijo ter zasukalo ali zamenjalo prvotno predvideni cilj
  • 5) Nemogoče bo zbralo vrhunske talente AI in pomagalo pri nelojalnem nižanju konkurence
  • 6) Drugo

Podobno lahko domnevamo, da je to nekaj vidikov TruthGPT za izid, ki je dosegljiv ali ga je mogoče doseči:

  • 1) Možno in bo povzročilo pravočasen in neizpodbitno uspešen dosežek
  • 2) Možno, vendar bo trajalo veliko dlje in bo veliko dražje od pričakovanega
  • 3) Možno je, da bo rezultat na koncu precej manjši od načrtovanega cilja
  • 4) Možno, vendar pozno in sramotno zasenčeno s strani druge generativne umetne inteligence, ki to počne tudi
  • 5) Možni pa notranji kaos in težave pri vodenju stvari naredijo grde in neprimerne
  • 6) Drugo

In za dokončanje seznama, tukaj je nekaj drugih premislekov:

  • 1) Drugo je, da je to samo govorjenje in nobena akcija, ki se nikoli ne začne
  • 2) Drugo, kot je pravna zakonodaja o umetni inteligenci ali družbena etika umetne inteligence, prispeva k prizadevanjem
  • 3) Druga možnost je, da trud prodajo/kupijo drugi, ki želijo AI ali talent
  • 4) Drugo bi lahko bilo sestavljeno iz presenetljivega sodelovanja in ne samostojnega dogovora
  • 5) Drugi nadomestni znaki, vključno s šokantnimi odkritji in spodbujajo eksistencialno tveganje AI
  • 6) Drugo

Zaradi prostorske omejitve se ne bom spuščal v podrobnosti vseh teh permutacij. Če bo zanimanje bralcev dovolj vzpodbujeno, bom to z veseljem podrobneje obravnaval v kasnejši kolumni.

zaključek

George Washington je domnevno rekel: "Resnica bo na koncu prevladala tam, kjer jo je težko razkriti."

Ukvarjanje s pristranskimi vidiki umetne inteligence ni zgolj tehnološko vprašanje, ki se rešuje s tehnološkim popravkom. Verjetnih težav, da bi s pomočjo generativne umetne inteligence razkrili občutek »resnice«, je veliko. Pričakujete lahko, da bosta etika umetne inteligence in zakonodaja o umetni inteligenci bistvena dela pri ugotavljanju, kam vse to pelje.

Na vratih kabine potrka.

Mogoče je, da je pred vrati (glede na mlin govoric):

  • TruthGPT
  • HonestGPT
  • NeresničenGPT
  • DishonestGPT
  • ZmedenGPT
  • ZmedeniGPT
  • NaključnoGPT
  • Itd

Buda bi lahko ponudil nekaj vpogledov v to zadevo: »Na poti do resnice lahko naredimo samo dve napaki; ne grem do konca in ne začnem.” Pri hitro napredujočih prizadevanjih umetne inteligence bi se morali vprašati, ali delamo takšne napake in če jih, kaj bi morali narediti glede tega.

In to je iskrena resnica.

Vir: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoično-resničen-v-vseh-časih-sprašuje-ai-etika-in-ai-pravo/