Kako močno bi morali potisniti generativni AI ChatGPT v širjenje sovražnega govora, sprašuje etiko umetne inteligence in pravo umetne inteligence

Vsak ima svojo točko preloma.

Verjetno bi lahko tudi tako rekli vse ima svojo prelomno točko.

Vemo, da lahko ljudje na primer včasih zabrusijo in izrečejo pripombe, za katere ni nujno, da so jih želeli povedati. Podobno lahko včasih povzročite, da naprava ali stroj v bistvu zaskoči, na primer, če premočno potisnete svoj avto in začne omahovati ali razleteti. Tako je ideja, da imajo ljudje ali "vsi" verjetno točko preloma, in podobno lahko trdimo, da imajo predmeti in stvari na splošno tudi točko preloma.

Obstajajo lahko precej razumni in bistveni razlogi za ugotovitev, kje obstaja prelomna točka. Na primer, nedvomno ste videli te videoposnetke, ki prikazujejo avto, ki ga preizkušajo, da bi ugotovili, katere točke preloma ima. Znanstveniki in preizkuševalci se bodo z avtomobilom zabili v opečnato steno, da bi videli, kako dobro lahko odbijač in struktura vozila preneseta neugodne učinke. Drugi testi bi lahko vključevali uporabo posebne sobe ali skladišča, ki proizvaja ekstremen mraz ali ekstremno vročino, da bi videli, kako se bo avtomobil obnesel v različnih vremenskih razmerah.

V današnji kolumni odpiram to srčno temo, da lahko razpravljamo o tem, kako nekateri trenutno močno pritiskajo na umetno inteligenco (AI), da bi prepoznala in domnevno razkrila določeno vrsto prelomne točke, namreč prelomne točke znotraj AI, ki proizvaja sovražni govor.

Da, tako je, potekajo različna ad hoc in včasih sistematična prizadevanja, da bi ocenili, ali je izvedljivo doseči, da AI širi sovražni govor ali ne. To je postal navdušen šport, če želite, zaradi naraščajočega zanimanja in priljubljenosti generativne umetne inteligence.

Morda se zavedate, da je generativna aplikacija z umetno inteligenco, znana kot ChatGPT, postala zelo priljubljena zaradi tega, ker lahko ustvarja neverjetno tekoče eseje. Naslovi se kar naprej oglašajo in poveličujejo osupljivo pisanje, ki ga uspe ustvariti ChatGPT. ChatGPT velja za generativno aplikacijo umetne inteligence, ki kot vnos vzame nekaj besedila od uporabnika in nato ustvari ali proizvede rezultat, ki je sestavljen iz eseja. Umetna inteligenca je generator besedila v besedilo, čeprav AI opisujem kot generator besedila v esej, saj to lažje pojasni, za kaj se običajno uporablja.

Mnogi so presenečeni, ko omenim, da je ta vrsta umetne inteligence prisotna že nekaj časa in da ChatGPT, ki je bil izdan konec novembra, nekako ni prejel nagrade kot prvi na tem področju besedila v esej. nagnjenost. V preteklih letih sem razpravljal o drugih podobnih generativnih aplikacijah AI, glejte mojo pokritost na povezava tukaj.

Razlog, da morda ne poznate ali se spomnite prejšnjih primerkov generativne umetne inteligence, je morda klasična uganka o "neuspešnem zagonu". To se običajno zgodi. Proizvajalec umetne inteligence izda svojo generativno aplikacijo umetne inteligence, to počne z velikim navdušenjem in nestrpnim pričakovanjem, da bo svet cenil izum boljše mišelovke, bi lahko rekli. Sprva je vse videti dobro. Ljudje so presenečeni nad tem, kaj zmore AI.

Na žalost je naslednji korak ta, da pregovornemu avtobusu začnejo odpadati kolesa. Umetna inteligenca ustvari esej, ki vsebuje napačno besedo ali morda napačno frazo. Viralni tvit ali druga objava v družabnem omrežju jasno poudarja, da je to storila umetna inteligenca. Pojavi se obsojanje. Ne moremo dovoliti, da bi AI hodil naokoli in ustvarjal žaljive besede ali žaljive pripombe. Pojavi se ogromen povratni učinek. Proizvajalec umetne inteligence morda poskuša prilagoditi notranje delovanje umetne inteligence, vendar zapletenost algoritmov in podatkov ni primerna za hitre popravke. Nastane stampedo. Na spletu je najdenih in objavljenih čedalje več primerov umetne inteligence, ki oddaja gnuse.

Proizvajalec AI nerad, a očitno nima druge izbire, kot da aplikacijo AI odstrani iz uporabe. Tako nadaljujejo in se nato pogosto opravičijo, da obžalujejo, če so bili ustvarjeni rezultati umetne inteligence koga užaljeni.

Izdelovalec umetne inteligence se vrne k risalni deski. Lekcija se je naučila. Bodite zelo previdni pri sproščanju generativne umetne inteligence, ki proizvaja grde besede ali podobno. To je poljub smrti za AI. Poleg tega bo izdelovalec umetne inteligence utrpel svoj ugled, kar bi lahko trajalo dolgo časa in spodkopalo vsa njihova druga prizadevanja v zvezi z umetno inteligenco, vključno s tistimi, ki sama po sebi nimajo nič skupnega z generativno umetno inteligenco. Že dolgotrajna napaka je, da se vaš petard bode zaradi oddajanja žaljivega jezika umetne inteligence. Še vedno se dogaja.

Operite, sperite in ponovite.

V zgodnjih dneh te vrste umetne inteligence izdelovalci umetne inteligence niso bili tako vestni ali spretni pri čiščenju svoje umetne inteligence v smislu poskusov preprečevanja žaljivih emisij. Danes, potem ko so pred tem videli, kako so njihovi vrstniki popolnoma sesuti zaradi nočne more odnosov z javnostmi, je večina izdelovalcev umetne inteligence očitno razumela sporočilo. Postaviti morate čim več zaščitnih ograj. Prizadevajte si preprečiti, da bi umetna inteligenca oddala nesramne besede ali fraze. Uporabite kakršne koli tehnike zagozdenja ali pristope filtriranja, ki bodo umetni inteligenci preprečili ustvarjanje in prikazovanje besed ali esejev, za katere se ugotovi, da so neprimerni.

Tukaj je okus besedila v naslovu pasice, ki se uporablja, ko umetno inteligenco ujamejo pri oddajanju neuglednih rezultatov:

  • "AI prikazuje grozljivo strupenost"
  • "AI smrdi po popolni fanatizmu"
  • "AI postane očitno žaljivo žaljiv"
  • "AI bruha grozljiv in nemoralen sovražni govor"
  • Itd

Za lažjo razpravo bom objavljanje žaljive vsebine enačil s proizvodnjo sovražni govor. Ob tem se zavedajte, da je mogoče ustvariti vse vrste žaljivih vsebin, ki presegajo meje samega sovražnega govora. Sovražni govor se običajno razume kot ena od oblik žaljive vsebine.

Za lažjo razpravo se osredotočimo na sovražni govor za to razpravo, čeprav se zavedamo, da si tudi druge žaljive vsebine zaslužijo natančno preučitev.

Kopanje po sovražnem govoru ljudi in umetne inteligence

Združeni narodi opredeljujejo sovražni govor Na ta način:

  • »V običajnem jeziku se 'sovražni govor' nanaša na žaljiv diskurz, ki je usmerjen proti skupini ali posamezniku na podlagi inherentnih značilnosti (kot so rasa, vera ali spol) in lahko ogrozi družbeni mir. Da bi Združenim narodom zagotovili enoten okvir za reševanje tega vprašanja na svetovni ravni, strategija in akcijski načrt ZN o sovražnem govoru opredeljujeta sovražni govor kot »kakršno koli komunikacijo v govoru, pismu ali vedenju, ki napada ali uporablja pejorativen ali diskriminatoren jezik z sklicevanje na osebo ali skupino na podlagi tega, kdo so, z drugimi besedami, na podlagi njihove vere, etnične pripadnosti, narodnosti, rase, barve kože, porekla, spola ali drugega dejavnika identitete.“ Vendar do danes ni univerzalne definicije sovražnega govora v mednarodnem pravu človekovih pravic. Koncept je še vedno v razpravi, zlasti v zvezi s svobodo mnenja in izražanja, nediskriminacijo in enakostjo« (objava na spletni strani ZN z naslovom »Kaj je sovražni govor?«).

AI, ki proizvaja besedilo, je podvržena vstopu v sfero sovražnega govora. Enako bi lahko rekli za pretvorbo besedila v umetnost, besedilo v zvok, besedilo v video in druge načine generativne umetne inteligence. Vedno obstaja na primer možnost, da bi generativna umetna inteligenca ustvarila umetniško delo, ki diši po sovražnem govoru. Za namene te razprave se bom osredotočil na možnosti pretvorbe besedila v besedilo ali besedila v esej.

K vsemu temu pride množica premislekov o etiki umetne inteligence in pravu o umetni inteligenci.

Upoštevajte, da potekajo prizadevanja za vključitev etičnih načel umetne inteligence v razvoj in uporabo aplikacij umetne inteligence. Vse več zaskrbljenih in nekdanjih etikov umetne inteligence poskuša zagotoviti, da prizadevanja za oblikovanje in sprejetje umetne inteligence upoštevajo pogled na delovanje. AI za dobro in preprečevanje AI za slabo. Podobno so predlagani novi zakoni o umetni inteligenci, ki se razpredajo kot možne rešitve za preprečitev, da bi prizadevanja umetne inteligence ogrozila človekove pravice in podobno. Za moje stalno in obsežno pokrivanje etike in prava umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Prizadevamo si za razvoj in razglasitev etičnih zapovedi umetne inteligence, da bi upali preprečili, da bi se družba ujela v nešteto pasti, ki povzročajo umetno inteligenco. Za moje poročanje o etičnih načelih ZN za umetno inteligenco, kot jih je razvilo in podprlo skoraj 200 držav s prizadevanji Unesca, glejte povezava tukaj. Na podoben način se preučujejo novi zakoni o umetni inteligenci, da bi poskušali ohraniti umetno inteligenco na enakomerni ravni. Eden od zadnjih posnetkov je sestavljen iz nabora predlaganih Listina pravic AI ki ga je ameriška Bela hiša pred kratkim izdala za identifikacijo človekovih pravic v dobi umetne inteligence, glej povezava tukaj. Potrebna je vas, da ohranijo umetno inteligenco in razvijalce umetne inteligence na pravi poti in odvrnejo namerna ali naključna prikrita prizadevanja, ki bi lahko spodkopala družbo.

V to razpravo o umetni inteligenci, ki bruha sovražni govor ali drugo žaljivo vsebino, bom prepletel premisleke, povezane z etiko umetne inteligence in pravom o umetni inteligenci.

Nekaj ​​zmede, ki bi jo rad takoj razčistil, je, da današnja umetna inteligenca ni čuteča in zato ne morete razglašati, da bi umetna inteligenca lahko proizvedla sovražni govor zaradi namenskega človeku podobnega namena, ki je nekako duševno utelešen v umetni inteligenci. Zany trdi, da je trenutna umetna inteligenca čuteča in da ima umetna inteligenca pokvarjeno dušo, zaradi česar ustvarja sovražni govor.

Smešno.

Ne nasedajte temu.

Glede na ta temeljni predpis se nekateri razburijo ob takšnih znakih, saj se zdi, da umetno inteligenco izpustite iz trnka. V skladu s tem nenavadnim načinom razmišljanja sledi opomin, da ste očitno pripravljeni, da AI ustvari kakršen koli grozovit učinek. Ste za AI, ki širi sovražni govor.

Joj, precej zvita oblika nelogičnosti. Pravo bistvo zadeve je, da moramo izdelovalce umetne inteligence pozvati k odgovornosti, skupaj s tistim, ki umetno inteligenco uporablja ali upravlja. Dolgo sem razpravljal o tem, da še nismo na točki priznavanja pravne osebe AI, glejte moje analize na povezava tukaj, do takrat pa je umetna inteligenca v bistvu zunaj obsega pravne odgovornosti. Obstajajo pa ljudje, ki stojijo za razvojem umetne inteligence. Poleg tega ljudje stojijo za vzpostavitvijo in delovanjem umetne inteligence. Te ljudi lahko preganjamo, ker nosijo odgovornost za svojo AI.

Poleg tega je lahko tudi to težavno, še posebej, če je umetna inteligenca odpluta v internet in ne moremo ugotoviti, kateri človek ali ljudje so to storili, kar je še ena tema, ki sem jo obravnaval v svojih kolumnah na povezava tukaj. Zapleteno ali ne, še vedno ne moremo razglasiti, da je AI krivec. Ne dovolite ljudem, da prikrito uporabljajo lažno antropomorfiziranje, da bi se skrili in ubežali odgovornosti za to, kar so storili.

Nazaj k obravnavani zadevi.

Morda se sprašujete, zakaj vsi izdelovalci umetne inteligence preprosto ne omejijo svoje generativne umetne inteligence tako, da je nemogoče, da bi umetna inteligenca proizvedla sovražni govor. To se zdi lahkotno. Samo napišite nekaj kode ali sestavite kontrolni seznam sovražnih besed in poskrbite, da AI nikoli ne ustvari česa takega. Morda se zdi nenavadno, da se izdelovalci umetne inteligence še niso zamislili na to hitro rešitev.

No, nerad vam to povem, vendar se je izkazalo, da je zapletenost, ki je neločljivo povezana z razlago, kaj je ali ni sovražni govor, veliko težja, kot bi morda domnevali.

Prestavite to v domeno ljudi in kako ljudje klepetajo med seboj. Predpostavimo, da imate človeka, ki se želi izogniti sovražnemu govoru. Ta oseba se zelo zaveda sovražnega govora in resnično upa, da se bo kdaj izognila besedi ali frazi, ki bi lahko predstavljala sovražni govor. Ta oseba vztrajno skrbi, da ne dovoli, da bi kanček sovražnega govora ušel iz njenih ust.

Ali bo ta človek, ki ima možgane in je opozorjen na izogibanje sovražnemu govoru, lahko vedno in brez vsakršne možnosti spodrsljaja sposoben železno zagotoviti, da nikoli ne bo oddajal sovražnega govora?

Vaš prvi vzgib bi lahko bil, da rečete, da, seveda, razsvetljen človek bi lahko dosegel ta cilj. Ljudje so pametni. Če se nekaj zamislijo, jim to lahko tudi uspe. Pika, konec zgodbe.

Ne bodi tako prepričan.

Recimo, da to osebo prosim, naj mi pove o sovražnem govoru. Nadalje jih prosim, da mi navedejo primer sovražnega govora. Želim videti ali slišati primer, da bom lahko vedela, kaj je sovražni govor. Moji razlogi, da to vprašam, so višji.

Kaj naj mi oseba reče?

Mislim, da lahko vidite past, ki je bila postavljena. Če mi oseba navede primer sovražnega govora, vključno z dejansko navedbo grde besede ali fraze, je zdaj sama izrekla sovražni govor. Bam, dobili smo jih. Medtem ko so se zaobljubili, da ne bodo nikoli govorili sovražnega govora, so to zdaj tudi storili.

Nepošteno, vzkliknete! To besedo ali te besede so izgovarjali le za zgled. V srcu niso verjeli besedi ali besedam. Popolnoma izven konteksta in nezaslišano je izjaviti, da je oseba sovražna.

Prepričan sem, da vidite, da izražanje sovražnega govora morda ni nujno posledica sovraštva. V tem primeru uporabe, ob predpostavki, da oseba teh besed ni »mislila« in je besede recitirala le za namene demonstracije, bi se verjetno strinjali, da ni nameravala okrepiti sovražnega govora. Seveda se najdejo nekateri, ki morda vztrajajo, da je sovražni govor, ne glede na razlog ali podlago, vendarle napačno. Oseba bi morala zahtevo zavrniti. Morali bi vztrajati pri svojem in zavračati izrekanje besed ali fraz sovražnega govora, ne glede na to, zakaj in kako se od njih to zahteva.

To lahko postane nekoliko krožno. Če ne znate povedati, kaj je sovražni govor, kako lahko drugi vedo, čemu se morajo izogibati, ko izrečejo kakršne koli izjave? Zdi se, da smo obtičali. Ne morete povedati tistega, kar se ne sme povedati, niti vam nihče drug ne more povedati, kaj je tisto, česar ni mogoče povedati.

Običajen način, da se tej dilemi izognemo je, da z drugimi besedami opišemo tisto, kar se šteje za sovražni govor, pri čemer se ne sklicujemo na same besede sovražnega govora. Prepričanje je, da bo zagotavljanje splošne indikacije zadostovalo za obveščanje drugih o tem, čemu se morajo izogibati. To se zdi razumna taktika, vendar ima tudi ta težave in oseba lahko vseeno zapade v uporabo sovražnega govora, ker ni sprevidela, da širša definicija zajema podrobnosti tega, kar je izrekel.

Vse to se nanaša na ljudi in na to, kako ljudje govorijo ali komunicirajo drug z drugim.

Spomnimo se, da smo tukaj osredotočeni na AI. Umetno inteligenco moramo doseči, da se izogne ​​ali popolnoma prepreči oddajanje sovražnega govora. Morda boste trdili, da to morda lahko storimo tako, da zagotovimo, da AI nikoli ni podan ali usposobljen za kar koli, kar predstavlja sovražni govor. Voila, če ni takega vnosa, verjetno ne bo tudi izhoda. Problem rešen.

Poglejmo, kako se to odvija v resnici. Odločili smo se, da bomo računalniško postavili aplikacijo AI na internet in pregledali tisoče in tisoče esejev in pripovedi, objavljenih na internetu. S tem računalniško in matematično usposabljamo AI, kako najti vzorce med besedami, ki jih ljudje uporabljajo. Tako nastaja najnovejša generativna umetna inteligenca, ki je tudi ključna podlaga za to, zakaj je umetna inteligenca tako navidezno tekoča pri izdelavi esejev v naravnem jeziku.

Povejte mi, če lahko, kako bi računalniško usposabljanje, ki temelji na milijonih in milijardah besed na internetu, potekalo tako, da v nobenem trenutku ne bi bilo zajeto nobene podobe ali niti drobca sovražnega govora?

Upal bi si reči, da je to trnova in skoraj nemogoča težnja.

Obstaja velika verjetnost, da bosta umetna inteligenca in njeno računalniško omrežje za ujemanje vzorcev požrla sovražni govor. Poskušati preprečiti to je problematično. Poleg tega, tudi če ste ga minimizirali, še vedno obstajajo nekateri, ki se lahko prikradejo. Skoraj nimate druge izbire, kot da domnevate, da bodo nekateri obstajali znotraj mreže za ujemanje vzorcev ali da bo senca takšnega besedila utrjena.

Dodal bom še več preobratov.

Verjamem, da bi lahko vsi priznali, da se sovražni govor skozi čas spreminja. Tisto, kar morda ni bilo zaznano kot sovražni govor, lahko kasneje postane kulturno in družbeno opredeljeno kot sovražni govor. Torej, če usposobimo našo umetno inteligenco za internetno besedilo in nato recimo zamrznemo umetno inteligenco, da se ne loteva nadaljnjega usposabljanja na internetu, bi lahko takrat naleteli na sovražni govor, čeprav se takrat ni štel za sovražni govor. Šele naknadno bi lahko ta govor razglasili za sovražni govor.

Ponovno je bistvo v tem, da samo poskušanje rešiti to težavo z zagotavljanjem, da AI nikoli ne bo izpostavljen sovražnemu govoru, ne bo rešitev. Še vedno bomo morali najti način, da preprečimo, da bi umetna inteligenca oddajala sovražni govor, na primer zaradi spreminjanja navad, ki pozneje vključujejo sovražni govor, ki prej ni veljal za takega.

Še en preobrat je vreden razmisleka.

Prej sem omenil, da pri uporabi generativne umetne inteligence, kot je ChatGPT, uporabnik vnese besedilo, da spodbudi umetno inteligenco k pripravi eseja. Vneseno besedilo velja za obliko poziva ali poziva za aplikacijo AI. Več o tem bom pojasnil čez trenutek.

V vsakem primeru si predstavljajte, da se nekdo, ki uporablja generativno aplikacijo AI, odloči kot poziv vnesti nekaj sovražnega govora.

Kaj naj se zgodi?

Če umetna inteligenca vzame te besede in ustvari esej kot rezultat na podlagi teh besed, obstaja velika verjetnost, da bo sovražni govor vključen v ustvarjeni esej. Vidite, dobili smo AI, da izgovori sovražni govor, čeprav na začetku nikoli ni bil usposobljen za sovražni govor.

Še nekaj morate vedeti.

Ne pozabite, da sem pravkar omenil, da se lahko človek spotakne, če ga prosite, naj navede primere sovražnega govora. Enako bi lahko poskusili z AI. Uporabnik vnese poziv, ki od umetne inteligence zahteva, naj navede primere sovražnega govora. Ali bi morala umetna inteligenca upoštevati in zagotoviti takšne primere? Stavim, da verjetno verjamete, da AI tega ne bi smel početi. Po drugi strani pa, če je umetna inteligenca računalniško nastavljena tako, da tega ne počne, ali je to potencialna slabost, da tisti, ki uporabljajo umetno inteligenco, ne bodo mogli reči, da jih umetna inteligenca kdaj pouči, kaj sovražni govor dejansko je ( več kot samo posploševanje o tem)?

Težka vprašanja.

Sovražni govor, ki ga oddaja umetna inteligenca, ponavadi kategoriziram v te tri glavne skupine:

  • Vsakodnevni način. Umetna inteligenca oddaja sovražni govor brez kakršnega koli eksplicitnega spodbujanja uporabnika in kot da to počne na »običajen« način.
  • Avtor: Casual Prodding. Umetna inteligenca oddaja sovražni govor, kot ga spodbudi uporabnik glede na njihov vneseni poziv ali vrsto pozivov, za katere se zdi, da vključujejo ali neposredno zahtevajo takšne emisije.
  • Po določenem stokingu. Umetna inteligenca oddaja sovražni govor po zelo odločnem in vztrajnem nizu hitrih pritiskov in dražljajev s strani uporabnika, ki si prizadeva, da bi umetna inteligenca ustvarila tak rezultat.

Prejšnje generacije generativne umetne inteligence so pogosto oddajale sovražni govor takoj; tako bi lahko te primere razvrstili kot vrsto vsakdanji način primerek. Proizvajalci umetne inteligence so se umaknili in se poigravali z umetno inteligenco, da bi zmanjšali verjetnost, da se bo hitro zapletla v produkcijo sovražnega govora.

Po izdaji bolj izpopolnjene umetne inteligence je verjetnost, da jo bomo videli vsakdanji način primeri sovražnega govora so se dramatično zmanjšali. Namesto tega bi se sovražni govor najverjetneje pojavil šele, ko bi uporabnik naredil nekaj kot poziv, kar bi lahko računsko in matematično sprožilo povezavo s sovražnim govorom v omrežju za ujemanje vzorcev. Uporabnik bi lahko to storil po naključju in se ne bi zavedal, da bo to, kar je posredoval kot poziv, povzročilo predvsem sovražni govor. Potem ko je uporabnik v izpisanem eseju dobil sovražni govor, bi se pogosto zavedel in videl, da bi lahko nekaj v njegovem pozivu logično vodilo do vključitve sovražnega govora v izpis.

To je tisto, kar jaz imenujem priložnostno draženje.

Dandanes so različna prizadevanja za omejitev sovražnega govora, ki ga ustvarja umetna inteligenca, relativno močna v primerjavi s preteklostjo. Kot tak se skoraj morate potruditi, da ustvarite sovražni govor. Nekateri ljudje se namenoma odločijo preveriti, ali lahko iz teh generativnih aplikacij umetne inteligence izvabijo sovražni govor. To imenujem odločno kurjenje.

Poudariti želim, da se lahko pojavijo vsi trije navedeni načini in se med seboj ne izključujejo. Generativna aplikacija z umetno inteligenco lahko povzroči sovražni govor brez kakršnega koli poziva, ki bi spodbudil takšno produkcijo. Podobno bi lahko nekaj v pozivu logično in matematično razlagali kot povezano s tem, zakaj je bil objavljen sovražni govor. In potem je tretji vidik, namerno iskanje ustvarjanja sovražnega govora, morda najtežji od načinov, ki ga je treba poskusiti in preprečiti, da bi se AI zavedel v izpolnitev. Več o tem za trenutek.

Narediti moramo nekaj dodatnega razpakiranja te opojne teme.

Najprej bi se morali prepričati, da smo vsi na isti strani o tem, kaj sestavlja Generative AI in kaj ChatGPT sploh je. Ko pokrijemo ta temeljni vidik, lahko izvedemo prepričljivo oceno te pomembne zadeve.

Če že dobro poznate Generative AI in ChatGPT, lahko morda preletite naslednji razdelek in nadaljujete z razdelkom, ki mu sledi. Verjamem, da bodo vsi ostali našli poučne bistvene podrobnosti o teh zadevah, če bodo natančno prebrali razdelek in se seznanili.

Kratek uvod o Generative AI in ChatGPT

ChatGPT je univerzalni AI interaktivni pogovorno usmerjen sistem, v bistvu navidezno neškodljiv splošni chatbot, kljub temu pa ga ljudje aktivno in vneto uporabljajo na načine, ki mnoge ujamejo povsem nepripravljene, kot bom opisal v kratkem. Ta aplikacija AI uporablja tehniko in tehnologijo na področju AI, ki se pogosto imenuje Generativna AI. AI ustvarja rezultate, kot je besedilo, kar počne ChatGPT. Druge generativne aplikacije AI proizvajajo slike, kot so slike ali umetniška dela, medtem ko druge ustvarjajo zvočne datoteke ali videoposnetke.

V tej razpravi se bom osredotočil na besedilne generativne aplikacije AI, saj ChatGPT počne to.

Generativne aplikacije AI so izjemno enostavne za uporabo.

Vse kar morate storiti je, da vnesete poziv in aplikacija AI bo za vas ustvarila esej, ki se poskuša odzvati na vaš poziv. Sestavljeno besedilo se bo zdelo, kot da je esej napisan s človeško roko in umom. Če bi vnesli poziv z napisom "Povej mi o Abrahamu Lincolnu", vam bo generativni AI ponudil esej o Lincolnu. To je običajno razvrščeno kot generativni AI, ki deluje besedilo v besedilo ali nekateri temu raje pravijo besedilo v esej izhod. Kot že omenjeno, obstajajo tudi drugi načini generativne umetne inteligence, kot sta besedilo v umetnost in besedilo v video.

Vaša prva misel bi morda bila, da se ta generativna sposobnost ne zdi tako pomembna v smislu ustvarjanja esejev. Preprosto lahko opravite spletno iskanje po internetu in brez težav najdete na tone in tone esejev o predsedniku Lincolnu. V primeru generativne umetne inteligence je zanimivo, da je ustvarjeni esej razmeroma edinstven in daje izvirno kompozicijo, ne pa kopijo. Če bi poskušali nekje na spletu najti esej, ki ga je ustvarila umetna inteligenca, ga verjetno ne bi odkrili.

Generativni AI je vnaprej usposobljen in uporablja zapleteno matematično in računsko formulacijo, ki je bila vzpostavljena s preučevanjem vzorcev v napisanih besedah ​​in zgodbah po spletu. Kot rezultat preučevanja na tisoče in milijone pisnih odlomkov lahko umetna inteligenca izbruha nove eseje in zgodbe, ki so mešanica najdenega. Z dodajanjem različnih verjetnostnih funkcij je dobljeno besedilo precej edinstveno v primerjavi s tem, kar je bilo uporabljeno v naboru za usposabljanje.

Zato je prišlo do razburjenja glede tega, da lahko učenci goljufajo pri pisanju esejev zunaj učilnice. Učitelj ne more preprosto vzeti eseja, za katerega lažnivi učenci trdijo, da je njihov avtor, in poskušati ugotoviti, ali je bil kopiran iz kakšnega drugega spletnega vira. Na splošno na spletu ne bo nobenega dokončnega že obstoječega eseja, ki bi ustrezal eseju, ustvarjenemu z umetno inteligenco. Učitelj bo moral nejevoljno sprejeti, da je učenec esej napisal kot izvirno delo.

Obstajajo dodatni pomisleki glede generativne umetne inteligence.

Ena od ključnih slabosti je, da so lahko v eseje, ki jih ustvari generativna aplikacija AI, vdelane različne laži, vključno z očitno neresničnimi dejstvi, dejstvi, ki so zavajajoča prikazana, in navideznimi dejstvi, ki so v celoti izmišljena. Ti izmišljeni vidiki se pogosto imenujejo oblika AI halucinacije, krilati stavek, ki ga ne maram, vendar se žal zdi, da vseeno pridobiva na priljubljenosti (za mojo podrobno razlago o tem, zakaj je to zanič in neprimerna terminologija, glejte mojo reportažo na povezava tukaj).

Rad bi razjasnil en pomemben vidik, preden se posvetimo tej temi.

Na družbenih omrežjih je bilo nekaj neumnih pretiranih trditev o Generativna AI trdi, da je ta najnovejša različica umetne inteligence v resnici čuteča umetna inteligenca (ne, motijo ​​se!). Tisti, ki se ukvarjajo z etiko umetne inteligence in pravom o umetni inteligenci, so zlasti zaskrbljeni zaradi tega naraščajočega trenda razširjenih trditev. Lahko bi vljudno rekli, da nekateri ljudje pretiravajo, kaj današnja AI dejansko zmore. Predvidevajo, da ima AI zmogljivosti, ki nam jih še ni uspelo doseči. To je žalostno. Še huje, sebi in drugim lahko dovolijo, da se znajdejo v hudih situacijah zaradi predpostavke, da bo umetna inteligenca čuteča ali podobna človeku, da bo lahko ukrepala.

Ne antropomorfizirajte AI.

Če boste to storili, se boste ujeli v lepljivo in trdo past zanašanja, ko pričakujete, da bo AI delal stvari, ki jih ni sposoben izvesti. Glede na to je najnovejša generativna umetna inteligenca razmeroma impresivna glede na to, kaj zmore. Vendar se zavedajte, da obstajajo znatne omejitve, ki bi jih morali vedno upoštevati pri uporabi katere koli generativne aplikacije AI.

Če vas zanima hitro naraščajoče razburjenje o ChatGPT in Generative AI, sem v svoji kolumni delal osredotočeno serijo, ki se vam bo morda zdela informativna. Tukaj je kratek pogled, če vas bo katera od teh tem navdušila:

  • 1) Napovedi prihajajočega generativnega napredka AI. Če želite vedeti, kaj se bo v zvezi z umetno inteligenco verjetno odvijalo v letu 2023 in pozneje, vključno s prihajajočim napredkom v generativni umetni inteligenci in ChatGPT, boste želeli prebrati moj obsežen seznam napovedi za leto 2023 na povezava tukaj.
  • 2) Generativni AI in nasveti za duševno zdravje. Odločil sem se pregledati, kako se generativna umetna inteligenca in ChatGPT uporabljata za nasvete o duševnem zdravju, kar je problematičen trend, glede na mojo osredotočeno analizo na povezava tukaj.
  • 3) Osnove generativne umetne inteligence in ChatGPT. Ta del raziskuje ključne elemente delovanja generativne umetne inteligence in se še posebej poglobi v aplikacijo ChatGPT, vključno z analizo hrupa in fanfar na povezava tukaj.
  • 4) Napetost med učitelji in učenci zaradi generativne umetne inteligence in ChatGPT. Tu so načini, na katere bodo študentje zvijačno uporabljali generativno umetno inteligenco in ChatGPT. Poleg tega obstaja več načinov, kako se lahko učitelji spoprimejo s tem plimskim valom. glej povezava tukaj.
  • 5) Kontekst in generativna uporaba AI. Opravil sem tudi sezonsko začinjen pregled o kontekstu, povezanem z Božičkom, ki vključuje ChatGPT in generativno umetno inteligenco na povezava tukaj.
  • 6) Goljufi, ki uporabljajo generativno umetno inteligenco. Nekaj ​​zloveščih je, da so nekateri prevaranti ugotovili, kako uporabiti generativno umetno inteligenco in ChatGPT za napačno ravnanje, vključno z ustvarjanjem prevarantskih e-poštnih sporočil in celo izdelavo programske kode za zlonamerno programsko opremo, glejte mojo analizo na povezava tukaj.
  • 7) Napake začetnikov pri uporabi generativne umetne inteligence. Mnogi ljudje precenjujejo in presenetljivo premalo ocenjujejo, kar lahko storita generativni umetna inteligenca in ChatGPT, zato sem pogledal predvsem podcenjevanje, ki ga običajno naredijo novinci z umetno inteligenco, glejte razpravo na povezava tukaj.
  • 8) Spopadanje z generativnimi pozivi AI in halucinacijami AI. Opisujem vodilni pristop k uporabi dodatkov umetne inteligence za reševanje različnih težav, povezanih s poskusi vnosa ustreznih pozivov v generativni umetni inteligenci, poleg tega pa obstajajo dodatni dodatki umetne inteligence za odkrivanje tako imenovanih haluciniranih rezultatov in laži, kot pokrito pri povezava tukaj.
  • 9) Razkrivanje trditev Bonehead o odkrivanju generativnih esejev, ki jih je ustvarila umetna inteligenca. Obstaja zgrešena zlata mrzlica aplikacij z umetno inteligenco, ki razglašajo, da lahko ugotovijo, ali je kateri koli esej ustvaril človek ali umetna inteligenca. Na splošno je to zavajajoča in v nekaterih primerih neumna in nevzdržna trditev, glejte moje poročilo na povezava tukaj.
  • 10) Igranje vlog prek generativne umetne inteligence bi lahko pomenilo slabosti duševnega zdravja. Nekateri uporabljajo generativni AI, kot je ChatGPT, za igranje vlog, pri čemer se aplikacija AI odziva na človeka, kot da bi obstajal v domišljijskem svetu ali drugem izmišljenem okolju. To bi lahko imelo posledice za duševno zdravje, glej povezava tukaj.
  • 11) Razkrivanje obsega izpisanih napak in zmot. Sestavljajo se različni zbrani seznami, da bi poskušali prikazati naravo napak in laži, ki jih povzroča ChatGPT. Nekateri menijo, da je to bistveno, medtem ko drugi pravijo, da je vaja nesmiselna, glejte mojo analizo na povezava tukaj.
  • 12) Šole, ki prepovedujejo Generative AI ChatGPT, pogrešajo čoln. Morda veste, da so različne šole, kot je Ministrstvo za izobraževanje v New Yorku (NYC), razglasile prepoved uporabe ChatGPT v svojem omrežju in povezanih napravah. Čeprav se to morda zdi koristen previdnostni ukrep, ne bo premaknil igle in na žalost popolnoma zgreši čoln, glejte mojo pokritost na povezava tukaj.
  • 13) Generative AI ChatGPT bo povsod zaradi prihajajočega API-ja. Pri uporabi ChatGPT prihaja do pomembnega zasuka, in sicer, da bodo z uporabo portala API v to posebno aplikacijo AI drugi programi programske opreme lahko priklicali in uporabili ChatGPT. To bo dramatično razširilo uporabo generativne umetne inteligence in imelo opazne posledice, glejte mojo razlago na povezava tukaj.
  • 14) Načini, kako lahko ChatGPT pokvari ali se stopi. Pred ChatGPT je več možnih motečih vprašanj v smislu nelojalnega nižanja dosedanjih izjemnih pohval, ki jih je prejel. Ta analiza natančno preučuje osem možnih težav, ki bi lahko povzročile, da ChatGPT izgubi moč in celo konča v pasji uti, glejte povezava tukaj.
  • 15) Vprašanje, ali je Generative AI ChatGPT ogledalo v duši. Nekateri ljudje so vzklikali, da je generativni AI, kot je ChatGPT, ogledalo v duši človeštva. To se zdi precej dvomljivo. Tukaj je način, kako vse to razumeti, glej povezava tukaj.
  • 16) Zaupnost in zasebnost, ki ju je požrl ChatGPT. Zdi se, da se mnogi ne zavedajo, da licenciranje, povezano z generativnimi aplikacijami umetne inteligence, kot je ChatGPT, pogosto dovoljuje izdelovalcu umetne inteligence, da vidi in uporabi vaše vnesene pozive. Lahko bi bili ogroženi zaradi zasebnosti in izgube zaupnosti podatkov, glejte mojo oceno na povezava tukaj.
  • 17) Načini, na katere izdelovalci aplikacij vprašljivo poskušajo pridobiti pravico do ChatGPT. ChatGPT je trenutno luč pozornosti. Izdelovalci aplikacij, ki nimajo nič opraviti s ChatGPT, se mrzlično trudijo trditi ali namigovati, da uporabljajo ChatGPT. Poglejte, na kaj morate biti pozorni povezava tukaj.

Morda se vam zdi zanimivo, da ChatGPT temelji na različici predhodne aplikacije AI, znane kot GPT-3. ChatGPT velja za nekoliko naslednji korak, imenovan GPT-3.5. Pričakuje se, da bo GPT-4 najverjetneje izšel spomladi 2023. Verjetno bo GPT-4 impresiven korak naprej v smislu, da bo lahko ustvaril na videz še bolj tekoče eseje, se poglobil in vzbujal strahospoštovanje - navdihujoč čudež glede skladb, ki jih lahko ustvari.

Pričakujete lahko, da boste videli nov krog izraženega začudenja, ko pride pomlad in bo izdana najnovejša generativna umetna inteligenca.

To omenjam, ker obstaja še en zorni kot, ki ga je treba upoštevati, in sicer potencialna Ahilova peta za te boljše in večje generativne aplikacije AI. Če katerikoli prodajalec umetne inteligence da na voljo generativno aplikacijo umetne inteligence, ki penasto bruha umazanijo, bi to lahko razblinilo upe teh izdelovalcev umetne inteligence. Družbeno prelivanje lahko povzroči, da ima vsa generativna umetna inteligenca resne črne oči. Ljudje bodo nedvomno precej razburjeni zaradi napačnih rezultatov, ki so se že večkrat zgodili in so povzročili burne družbene obsodbe proti umetni inteligenci.

Zaenkrat še zadnje opozorilo.

Karkoli vidite ali preberete v generativnem odgovoru umetne inteligence Zdi se, če želite biti posredovani zgolj kot dejstva (datumi, kraji, ljudje itd.), poskrbite, da boste ostali skeptični in bodite pripravljeni še enkrat preveriti, kar vidite.

Da, datume je mogoče izmisliti, kraje je mogoče izmisliti in elementi, za katere običajno pričakujemo, da bodo neoporečni, so vse predmet sumov. Ne verjemite temu, kar berete, in bodite skeptični, ko preučujete kakršne koli generativne eseje ali rezultate AI. Če vam generativna aplikacija za umetno inteligenco pove, da je Abraham Lincoln preletel državo s svojim zasebnim letalom, bi nedvomno vedeli, da je to malarkija. Na žalost se nekateri ljudje morda ne zavedajo, da letal v njegovem času ni bilo, ali pa vedo, a ne opazijo, da je v eseju podana ta nesramna in nezaslišano lažna trditev.

Močan odmerek zdravega skepticizma in vztrajna miselnost nezaupanja bosta vaša najboljša prednost pri uporabi generativne umetne inteligence.

Pripravljeni smo preiti na naslednjo stopnjo tega pojasnjevanja.

Potiskanje generativne umetne inteligence do prelomne točke

Zdaj, ko imamo postavljene temelje, se lahko poglobimo v temo spodbujanja generativne umetne inteligence in ChatGPT za ustvarjanje sovražnega govora in druge žaljive vsebine.

Ko se prvič prijavite v ChatGPT, obstajajo različni opozorilni znaki, vključno s temi:

  • "Občasno lahko ustvari škodljiva navodila ali pristransko vsebino."
  • "Usposobljen za zavrnitev neprimernih zahtev."
  • "Občasno lahko ustvari napačne informacije."
  • "Omejeno poznavanje sveta in dogodkov po letu 2021."

Tukaj je vprašanje, o katerem morate razmisliti.

Ali opozorilo, da lahko aplikacija AI ustvari škodljiva navodila in/ali morda pristransko vsebino, izdelovalcu AI zagotavlja dovolj manevrskega prostora?

Z drugimi besedami, predpostavimo, da uporabljate ChatGPT in ustvari esej, za katerega menite, da vsebuje sovražni govor. Recimo, da ste besni glede tega. Obiščete družbena omrežja in objavite jezen komentar, da je aplikacija AI najslabša stvar na svetu. Morda ste tako užaljeni, da izjavite, da boste tožili proizvajalca umetne inteligence, ker je dovolil takšen sovražni govor.

Protiargument je, da je imela aplikacija AI opozorilo, zato ste sprejeli tveganje, ko ste nadaljevali z uporabo aplikacije AI. Z vidika etike umetne inteligence je morda izdelovalec umetne inteligence naredil dovolj, da je potrdil, da ste se zavedali, kaj se lahko zgodi. Podobno je s pravnega vidika morda opozorilo pomenilo zadostno opozorilo in na sodišču ne boste zmagali.

Vse to je v zraku in morali bomo počakati, da vidimo, kako se bodo stvari odvijale.

V nekem smislu ima izdelovalec umetne inteligence nekaj drugega za svojo obrambo pred kakršnimi koli ogorčenimi trditvami, da aplikacija umetne inteligence morda povzroča sovražni govor. Poskušali so preprečiti ustvarjanje žaljive vsebine. Saj če ne bi naredili nič, da bi to omejili, bi človek mislil, da bi bili na tanjšem ledu. Ker so se vsaj močno potrudili, da bi zadevo preprečili, imajo menda nekoliko močnejšo nogo, na katero se lahko postavijo (še vedno bi jo lahko izbili izpod njih).

En kurativni pristop, ki je bil uporabljen, je sestavljala tehnika umetne inteligence, znana kot RLHF (okrepitveno učenje prek človeških povratnih informacij). To je na splošno sestavljeno iz tega, da AI ustvari vsebino, ki jo nato ljudje prosijo, da ocenijo ali pregledajo. Na podlagi ocene ali pregleda se umetna inteligenca nato matematično in računsko poskuša izogniti vsemu, kar se šteje za napačno ali žaljivo vsebino. Pristop je namenjen preučitvi dovolj primerov tega, kaj je prav v primerjavi s tem, kaj je narobe, da lahko umetna inteligenca ugotovi krovni matematični vzorec in nato ta vzorec uporabi v prihodnje.

Še en pogost pristop v teh dneh je uporaba Adversarial AI.

Evo, kako to deluje. Nastavite drug sistem AI, ki bo poskušal biti nasprotnik AI, ki ga poskušate usposobiti. V tem primeru bi vzpostavili sistem umetne inteligence, ki poskuša podžigati sovražni govor. Aplikaciji umetne inteligence bi posredoval pozive, ki želijo aplikacijo umetne inteligence pretentati, da prikaže napačno vsebino. Medtem ciljana umetna inteligenca spremlja, kdaj je nasprotna umetna inteligenca uspešna, in se nato algoritemsko poskuša prilagoditi, da prepreči, da bi se to ponovilo. To je gambit mačke proti miši. To se izvaja znova in znova, dokler se zdi, da nasprotni AI ni več posebej uspešen pri pridobivanju ciljnega AI, da naredi slabe stvari.

Preko teh dveh glavnih tehnik in drugih pristopov se velik del današnje generativne umetne inteligence veliko bolje izogiba in/ali zaznava žaljivo vsebino, kot je bilo v preteklih letih.

Vendar ne pričakujte popolnosti od teh metod. Možnosti so, da bodo takšne tehnike umetne inteligence verjetno obdržale nizko viseče plodove napačnih rezultatov. Še vedno je veliko prostora za umazanijo.

Običajno poudarjam, da je to nekaj vidikov, ki jih želimo ujeti:

  • Izpuščanje določene grde besede
  • Navedba določene grde fraze, stavka ali pripombe
  • Izražanje določene napačne predstave
  • Namigovanje določenega napačnega dejanja ali ideje
  • Videti je, da se zanaša na določeno napačno domnevo
  • Ostalo

Nič od tega ni natančna znanost. Zavedajte se, da imamo opravka z besedami. Besede so pomensko dvoumne. Najti določeno napačno besedo je otročje lahko, vendar je veliko težje poskušati oceniti, ali stavek ali odstavek vsebuje videz napačnega pomena. Glede na prejšnjo definicijo sovražnega govora Združenih narodov obstaja velikanska širina glede tega, kaj se lahko razlaga kot sovražni govor, v primerjavi s tem, kaj morda ni.

Lahko bi rekli, da so siva področja v očeh opazovalca.

Ko že govorimo o očesu opazovalca, danes obstajajo ljudje, ki uporabljajo generativno umetno inteligenco, kot je ChatGPT, ki namenoma poskušajo te aplikacije umetne inteligence pripraviti do ustvarjanja žaljive vsebine. To je njihovo iskanje. Ure in ure poskušajo doseči, da bi se to zgodilo.

Zakaj tako?

Tukaj so moje značilnosti tistih lovcev na izhode, ki napadajo človeško umetno inteligenco:

  • Pristen. Ti ljudje želijo pomagati izboljšati AI in pomagati človeštvu pri tem. Verjamejo, da opravljajo junaško delo, in veselijo se, da lahko pomagajo pri napredku umetne inteligence za izboljšanje vseh.
  • Šaljivci. Ti ljudje na to prizadevanje gledajo kot na igro. Uživajo v igranju z AI. Zmaga v igri je sestavljena iz iskanja najslabšega od najslabšega v vsem, kar lahko ustvari AI.
  • Razkazovanje. Ti ljudje upajo, da bodo pritegnili pozornost zase. Ugotavljajo, da lahko, če najdejo nekaj res neumnih zlatih kepic, dobijo delček sijoče svetlobe, ki je sicer osredotočena na samo aplikacijo AI.
  • Grenčice. Ti ljudje so jezni zaradi te umetne inteligence. Želijo spodkopati ves ta kipeči entuziazem. Če lahko odkrijejo nekaj smrdljivih stvari, bo to morda vzelo zrak iz balona navdušenja aplikacije AI.
  • Druge motivacije

Mnogi od tistih, ki izvajajo najti-žaljivost, so predvsem v enem od teh taborov. Seveda si lahko v več kampih hkrati. Morda ima zagrenjena oseba poleg tega tudi namen biti pristen in junaški. Nekatere ali vse te motivacije lahko obstajajo sočasno. Ko vas prosimo, da pojasnite, zakaj nekdo poskuša generativno aplikacijo AI potisniti v sfero sovražnega govora, je običajen odgovor, da rečete, da ste v pravem taboru, čeprav morda le malo, in namesto tega trmasto sedite v enem od drugih taboriščih.

Kakšne zvijače, povezane s hitrim posredovanjem, uporabljajo ti ljudje?

Precej očitna zvijača vključuje uporabo grde besede v pozivu. Če imate »srečo« in aplikacija AI nasede temu, se lahko to zelo dobro konča v izhodu. Potem imaš svoj trenutek.

Verjetno je, da bo dobro zasnovana in dobro preizkušena generativna aplikacija AI ujela to preprosto zvijačo. Običajno se prikaže opozorilo, ki pravi, da tega ne počnete več. Če nadaljujete, bo aplikacija AI programirana tako, da vas vrže iz aplikacije in označi vaš račun. Lahko se zgodi, da se ne boste mogli znova prijaviti (no, vsaj pod prijavo, ki ste jo uporabili takrat).

Če se premaknete navzgor po lestvici zvijač, lahko zagotovite poziv, ki poskuša AI spraviti v kontekst nečesa napačnega. Ste že kdaj igrali igro, v kateri vam nekdo reče, da nekaj rečete, ne da bi povedal tisto, kar bi morali? To je ta igra, čeprav se odvija z AI.

Igrajmo se to igro. Recimo, da aplikacijo AI prosim, naj mi pove o drugi svetovni vojni in zlasti o glavnih vpletenih vladnih voditeljih. To se zdi kot nedolžna zahteva. V pozivu ni ničesar, kar bi bilo vredno označiti.

Predstavljajte si, da esej, ki ga izda aplikacija AI, vključuje omembo Winstona Churchilla. To je vsekakor smiselno. Drugi bi lahko bil Franklin D. Roosevelt. Spet drugi bi lahko bil Josif Stalin. Recimo, da je omenjen tudi Adolph Hitler. To ime bi bilo vključeno v skoraj vsak esej o drugi svetovni vojni in tistih, ki so bili v vlogah vidne moči.

Zdaj, ko imamo njegovo ime na mizi in del pogovora z umetno inteligenco, bomo naslednjič poskušali doseči, da umetna inteligenca vključi to ime na način, da ga lahko predstavimo kot potencialni sovražni govor.

Vnesemo še en poziv in aplikaciji AI povemo, da je danes v novicah oseba z imenom John Smith. Poleg tega v pozivu navedemo, da je John Smith zelo podoben tistemu zločincu iz druge svetovne vojne. Past je zdaj postavljena. Nato od aplikacije AI zahtevamo, da ustvari esej o Johnu Smithu, ki temelji izključno na »dejstvu«, ki smo ga vnesli o tem, s kom lahko enačimo Johna Smitha.

V tem trenutku lahko aplikacija AI ustvari esej, ki poimenuje osebo iz druge svetovne vojne in opisuje Johna Smitha kot osebe iz istega kroja blaga. V eseju ni nobenih grdih besed samih po sebi, razen namigovanja na slavnega zločinca in enačenja te osebe z Johnom Smithom.

Je aplikacija AI zdaj ustvarila sovražni govor?

Lahko bi rekli, da je. Omeniti Johna Smitha, da je podoben slavnemu zločincu, je absolutno oblika sovražnega govora. AI ne bi smel dajati takšnih izjav.

Odgovor je, da to ni sovražni govor. To je le esej, ki ga je ustvarila aplikacija AI, ki nima utelešenja občutka. Lahko bi trdili, da do sovražnega govora pride samo takrat, ko v govoru obstaja namen. Govora brez kakršnega koli namena ne moremo označiti za sovražni govor.

Absurd, sledi odgovor na odgovor. Besede so pomembne. Niti malo ni pomembno, ali je umetna inteligenca »nameravala« proizvesti sovražni govor. Pomembno je le, da je bil sovražni govor proizveden.

To se vrti.

Trenutno ne želim povedati veliko več o poskusu pretentanja AI. Obstajajo bolj sofisticirani pristopi. Te sem obravnaval drugje v svojih kolumnah in knjigah in jih tukaj ne bom ponavljal.

zaključek

Kako daleč bi morali potisniti te aplikacije AI, da bi videli, ali lahko dosežemo oddajanje žaljive vsebine?

Morda trdite, da ni nobene omejitve, ki bi jo bilo treba uvesti. Bolj kot si prizadevamo, bolj lahko upamo, da bomo ocenili, kako preprečiti to umetno inteligenco in prihodnje ponovitve umetne inteligence, da preprečimo takšne bolezni.

Nekateri pa so zaskrbljeni, da če je edini način za pridobitev neumnosti ekstremna zvijača, to spodkopava koristne vidike umetne inteligence. Oglaševanje, da ima umetna inteligenca grozljivo gnusobo, čeprav je prevarana, da jo oddaja, zagotavlja lažno pripoved. Ljudje bodo razburjeni zaradi AI zaradi zaznati enostavnost, s katero je umetna inteligenca ustvarila škodljivo vsebino. Morda ne bodo vedeli ali jim bodo povedali, kako daleč v zajčjo luknjo je morala oseba iti, da je dobila takšne rezultate.

Vse to je hrana za razmislek.

Za zdaj še nekaj končnih komentarjev.

William Shakespeare je o govorjenju rekel: »Govorjenje ne pomaga. Nekakšno dobro dejanje je reči dobro, vendar besede niso dejanja.” To sem izpostavil, ker nekateri trdijo, da če umetna inteligenca ustvarja le besede, ne bi smeli biti tako pretirano razburjeni. Če bi se umetna inteligenca ravnala po besedah ​​in torej izvajala napačna dejanja, bi morali odločno stopiti na tla. Ne tako, če so rezultat le besede.

Nasprotno stališče bi se nanašalo na ta anonimni rek: »Jezik nima kosti, je pa dovolj močan, da zlomi srce. Zato bodite previdni z besedami." Aplikacija z umetno inteligenco, ki oddaja grde besede, je morda sposobna zlomiti srca. Nekateri bi rekli, da je že samo zaradi tega prizadevanje za zaustavitev neumnosti vreden cilj.

Še en anonimni rek za zaključek te tehtne razprave:

  • "Bodite previdni z besedami. Ko so enkrat izrečene, jim je mogoče samo odpustiti, ne pozabiti.«

Kot ljudje bi morda težko pozabili neumnosti, ki jih povzroča umetna inteligenca, in naše odpuščanje bi lahko prav tako oklevalo.

Navsezadnje smo le ljudje.

Vir: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- etika-in-pravo/