Ali razkrivanje in beleženje teh generativnih AI ChatGPT napačnih in halucinantnih rezultatov kaj koristi, se sprašuje etika umetne inteligence in pravo umetne inteligence

Čaka vas skrivnost.

Da, v zakulisju se nekaj prikrito dogaja glede najnovejših AI, o čemer bi morda želeli izvedeti.

V današnji kolumni bom preučil nedavni zagon za zbiranje domnevnih napak in drugih težav, povezanih z izpisanimi eseji iz aplikacije AI, znane kot ChatGPT. Ta posebna aplikacija uporablja vrsto umetne inteligence, imenovano Generativna AI. Verjetno ste že slišali ali videli privlačne naslove o generativni AI in ChatGPT. Novica je vznemirjena zaradi te posebne aplikacije AI in na videz osupljivih zmogljivosti, ki se nanašajo na to vrsto AI.

Kot bom obravnaval čez trenutek, so nekateri trdno prepričani, da moramo sestaviti seznam napak ali napak, ki jih lahko povzroči aplikacija AI, ko za vas ustvari esej. Drugi menijo, da je zamisel o takšnem seznamu, čeprav je občudovanja vredna, nesmiselna vaja in bo obrodila zelo malo sadov.

Preučili bomo obe strani te ogorčne razprave.

Najprej se prepričajmo, da smo vsi na isti strani o tem, kaj sestavlja Generative AI in kaj ChatGPT sploh je.

ChatGPT je univerzalni AI interaktivni pogovorno usmerjen sistem, v bistvu na videz neškodljiv splošni chatbot, kljub temu pa ga ljudje aktivno in vneto uporabljajo na načine, ki mnoge ujamejo povsem nepripravljene. Vse, kar morate storiti za uporabo te vrste AI, je vnesti poziv in aplikacija AI bo za vas ustvarila esej, ki se poskuša odzvati na vaš poziv.

Na žalost je to mogoče uporabiti na nekoliko neetične ali zvijačne načine. Še posebej moteča zadržka je, da lahko učenci uporabljajo generativno zasnovano aplikacijo AI, da namesto njih pripravijo dodeljene eseje, pri čemer preprosto vnesejo stavek ali dva, da aplikacijo usmerijo v pravo smer. Nekateri obžalujejo, da to pomeni, da bodo učenci goljufali, ko bodo pisali eseje izven pouka. Učitelji poskušajo ugotoviti, kaj storiti, glejte mojo analizo in priporočila na povezava tukaj.

Kljub nenehnemu hrupu hvalevrednih pohval za ChatGPT obstaja manj znana zaskrbljenost, ki so jo izrazili predvsem poznavalci umetne inteligence, da obstajajo nekatere pomembne težave in pomisleki, ki bi morali ljudi skrbeti. Ena od ključnih slabosti je, da so lahko v eseje, ki jih ustvari ta aplikacija AI, vdelane različne laži, vključno z očitno neresničnimi dejstvi, dejstvi, ki so zavajajoča prikazana, in navideznimi dejstvi, ki so v celoti izmišljena. Ti izmišljeni vidiki se pogosto imenujejo oblika AI halucinacije, krilati stavek, ki mi ni všeč, vendar se žal zdi, da vseeno pridobiva na priljubljenosti (za mojo podrobno razlago o tem, zakaj je to zanič in neprimerna terminologija, glejte mojo reportažo na povezava tukaj).

Rad bi razjasnil en pomemben vidik, preden se posvetimo tej temi.

Na družabnih omrežjih je bilo nekaj čudnih pretiranih trditev o Generativna AI trdi, da je ta najnovejša različica umetne inteligence v resnici čuteča umetna inteligenca (ne, motijo ​​se!). Tisti, ki se ukvarjajo z etiko umetne inteligence in pravom o umetni inteligenci, so zlasti zaskrbljeni zaradi tega naraščajočega trenda razširjenih trditev. Lahko bi vljudno rekli, da nekateri ljudje pretiravajo, kaj današnja AI dejansko zmore. Predvidevajo, da ima AI zmogljivosti, ki nam jih še ni uspelo doseči. To je žalostno. Še huje, sebi in drugim lahko dovolijo, da se znajdejo v hudih situacijah zaradi predpostavke, da bo umetna inteligenca čuteča ali podobna človeku, da bo lahko ukrepala.

Ne antropomorfizirajte AI.

Če boste to storili, se boste ujeli v lepljivo in trdo past zanašanja, ko pričakujete, da bo AI delal stvari, ki jih ni sposoben izvesti. Glede na to je najnovejša generativna umetna inteligenca razmeroma impresivna glede na to, kaj zmore. Vendar se zavedajte, da obstajajo znatne omejitve, ki bi jih morali vedno upoštevati pri uporabi katere koli generativne aplikacije AI.

Če vas zanima hitro naraščajoče razburjenje o ChatGPT in Generative AI, sem v svoji kolumni delal osredotočeno serijo, ki se vam bo morda zdela informativna. Tukaj je kratek pogled, če vas bo katera od teh tem navdušila:

  • 1) Napovedi prihajajočega generativnega napredka AI. Če želite vedeti, kaj se bo v zvezi z umetno inteligenco verjetno odvijalo v letu 2023 in pozneje, vključno s prihajajočim napredkom v generativni umetni inteligenci in ChatGPT, boste želeli prebrati moj obsežen seznam napovedi za leto 2023 na povezava tukaj.
  • 2) Generativni AI in nasveti za duševno zdravje. Odločil sem se pregledati, kako se generativna umetna inteligenca in ChatGPT uporabljata za nasvete o duševnem zdravju, kar je problematičen trend, glede na mojo osredotočeno analizo na povezava tukaj.
  • 3) Kontekst in generativna uporaba AI. Opravil sem tudi sezonsko začinjen pregled o kontekstu, povezanem z Božičkom, ki vključuje ChatGPT in generativno umetno inteligenco na povezava tukaj.
  • 4) Goljufi, ki uporabljajo generativno umetno inteligenco. Nekaj ​​zloveščih je, da so nekateri prevaranti ugotovili, kako uporabiti generativno umetno inteligenco in ChatGPT za napačno ravnanje, vključno z ustvarjanjem prevarantskih e-poštnih sporočil in celo izdelavo programske kode za zlonamerno programsko opremo, glejte mojo analizo na povezava tukaj.
  • 5) Napake začetnikov pri uporabi generativne umetne inteligence. Mnogi ljudje precenjujejo in presenetljivo premalo ocenjujejo, kar lahko storita generativni umetna inteligenca in ChatGPT, zato sem pogledal predvsem podcenjevanje, ki ga običajno naredijo novinci z umetno inteligenco, glejte razpravo na povezava tukaj.
  • 6) Spopadanje z generativnimi pozivi AI in halucinacijami AI. Opisujem vodilni pristop k uporabi dodatkov umetne inteligence za reševanje različnih težav, povezanih s poskusi vnosa ustreznih pozivov v generativni umetni inteligenci, poleg tega pa obstajajo dodatni dodatki umetne inteligence za odkrivanje tako imenovanih haluciniranih rezultatov in laži, kot pokrito pri povezava tukaj.
  • 7) Razkrivanje trditev Bonehead o odkrivanju generativnih esejev, ki jih je ustvarila umetna inteligenca. Obstaja zgrešena zlata mrzlica aplikacij z umetno inteligenco, ki razglašajo, da lahko ugotovijo, ali je kateri koli esej ustvaril človek ali umetna inteligenca. Na splošno je to zavajajoča in v nekaterih primerih neumna in nevzdržna trditev, glejte moje poročilo na povezava tukaj.
  • 8) Igranje vlog prek generativne umetne inteligence bi lahko pomenilo slabosti duševnega zdravja. Nekateri uporabljajo generativni AI, kot je ChatGPT, za igranje vlog, pri čemer se aplikacija AI odziva na človeka, kot da bi obstajal v domišljijskem svetu ali drugem izmišljenem okolju. To bi lahko imelo posledice za duševno zdravje, glej povezava tukaj.

Takoj zdaj razpravljajmo o bistvu generativnega umetne inteligence in ChatGPT, da boste vedeli, za katere temelje gre. Nato bomo pripravljeni skočiti na poskusno analizo laži, ki jih te aplikacije AI potencialno lahko ustvarijo. Vključil bom več primerov uporabe ChatGPT, ki vam bodo pomagali oprijemljivo razumeti naravo tega, kar ustvarja ta vrsta generativne umetne inteligence.

Odpiranje pločevinke črvov o Generative AI

Pripravljeni smo se potopiti v nekatere podrobnosti o AI.

Če ste že zelo dobro seznanjeni s temo generativne umetne inteligence in ChatGPT, se lahko odločite, da na kratko preletite moje točke in nadaljujete z naslednjim delom te razprave. Za vse ostale menim, da vam bo ta razlaga morda v pomoč.

Na kratko, generativna umetna inteligenca je posebna vrsta umetne inteligence, ki sestavlja besedilo, kot da bi ga napisala človeška roka in um. Vse kar morate storiti je, da vnesete poziv, kot je stavek, kot je »Povej mi o Abrahamu Lincolnu« in generativna umetna inteligenca vam bo ponudila esej o Lincolnu. To je običajno razvrščeno kot generativni AI, ki deluje besedilo v besedilo ali nekateri temu raje pravijo besedilo v esej izhod. Morda ste že slišali za druge načine generativne umetne inteligence, kot sta pretvorba besedila v umetnost in besedilo v video.

Vaša prva misel bi morda bila, da se to ne zdi tako velik zalogaj v smislu ustvarjanja esejev. Preprosto lahko opravite spletno iskanje po internetu in brez težav najdete na tone in tone esejev o predsedniku Lincolnu. V primeru generativne umetne inteligence je zanimivo, da je ustvarjeni esej razmeroma edinstven in daje izvirno kompozicijo, ne pa kopijo. Če bi poskušali nekje na spletu najti esej, ki ga je ustvarila umetna inteligenca, ga verjetno ne bi odkrili.

Generativni AI je vnaprej usposobljen in uporablja zapleteno matematično in računsko formulacijo, ki je bila vzpostavljena s preučevanjem vzorcev v napisanih besedah ​​in zgodbah po spletu. Kot rezultat preučevanja na tisoče in milijone pisnih odlomkov lahko umetna inteligenca izbruha nove eseje in zgodbe, ki so mešanica najdenega. Z dodajanjem različnih verjetnostnih funkcij je dobljeno besedilo precej edinstveno v primerjavi s tem, kar je bilo uporabljeno v naboru za usposabljanje.

Zato je prišlo do razburjenja glede tega, da lahko učenci goljufajo pri pisanju esejev zunaj učilnice. Učitelj ne more preprosto vzeti eseja, za katerega lažnivi učenci trdijo, da je njihov avtor, in poskušati ugotoviti, ali je bil kopiran iz kakšnega drugega spletnega vira. Na splošno na spletu ne bo nobenega dokončnega že obstoječega eseja, ki bi ustrezal eseju, ustvarjenemu z umetno inteligenco. Učitelj bo moral nejevoljno sprejeti, da je učenec esej napisal kot izvirno delo.

Čez trenutek vam bom predstavil, kaj se zgodi, ko vnesete vprašanja ali pozive v generativni AI. Uporabil bom najnovejšo različico ChatGPT za vnos svojih pozivov in zbiranje »odgovorov« ali esejev, ki jih ustvari umetna inteligenca (upoštevajte, da je enako mogoče storiti s številnimi drugimi razpoložljivimi generativnimi aplikacijami umetne inteligence; odločil sem se za uporabo ChatGPT, ker prav zdaj dobiva svojih pet minut slave).

Morda bi bila kratka tangenta o ChatGPT v tem trenutku v pomoč.

Aplikacija ChatGPT je bila na voljo širši javnosti šele pred nekaj meseci. Na splošno so te generativne aplikacije umetne inteligence običajno dostopne samo poznavalcem umetne inteligence. Nenavaden vidik, da lahko ChatGPT uporablja vsakdo, tako da preprosto vnese e-poštni naslov in ime, no, zaradi tega se je veliko ljudi odločilo, da ga poskusijo. ChatGPT je trenutno brezplačen za uporabo (vprašanje monetizacije je grozeča dilema za ustvarjalce AI).

Skoraj takoj se je na družbenih omrežjih pojavil ogromen odziv, ko so ljudje hiteli navajati primere, kaj zmore generativna umetna inteligenca. Podjetje OpenAI, ki izdeluje ChatGPT, se je odločilo zapreti prijave pri milijonih uporabnikov. Tem milijonom uporabnikov je uspelo zasuti radijske valove z najrazličnejšimi zgodbami o uporabi ChatGPT.

Bodite zelo previdni in verjamete, kaj imajo ljudje povedati o aplikaciji AI. Mnogi od teh ljudi nimajo pojma o tem, kaj uporabljajo. Skoraj tako, kot da nikoli ne bi vozili avtomobila in se sploh ne bi zavedali, da avtomobili obstajajo, kar naenkrat pa bi imeli priložnost voziti avto. Sledi popolno začudenje.

Ne rečem, da generativni AI ni razmeroma impresiven. Je. Samo poudarjam, da je veliko bleščečih pričevanj objavljenih s strani mnogih, ki se blaženo ne zavedajo, kaj zmore današnja umetna inteligenca. Tisti med nami, ki smo del AI, zadnjih nekaj let uporabljamo generativno AI. Morda smo se tega navadili. Nenadoma je opazovanje ogromne množice ljudi, ki so ga hvalili po strehah, vznemirljivo spodbudilo, a tudi nekoliko zaskrbljujoče. Zaskrbljujoče je, ko ljudje razglašajo, da je generativna umetna inteligenca čuteča. Ni. Ne dovolite, da vas kdo prepriča v nasprotno.

Kot rečeno, na področju umetne inteligence poteka nenehna burna razprava o tem, ali je generativna umetna inteligenca na poti k občutku ali morda ni. Eno stališče je, da če bomo še naprej povečevali generativno umetno inteligenco s hitrejšimi računalniki in večjo količino podatkov, kot je brskanje po vsakem centimetru interneta, bomo skoraj spontano prišli do čuteče umetne inteligence. Drugi trdijo, da je to zelo malo verjetno. Predlagajo, da bi lahko bila generativna umetna inteligenca ena od mnogih komponent, ki so potrebne. Obstaja še bolj mračno mnenje, da je generativna umetna inteligenca postranska stvar, ki nas odvrača od resničnih prebojev, ki jih bomo potrebovali za dosego čuteče umetne inteligence.

Morda boste našli tudi omembe vredne, na katere se poznavalci umetne inteligence navadno sklicujejo Umetna splošna inteligenca (AGI) kot aspiracijski cilj za področje umetne inteligence. Včasih je veljalo, da je bil cilj doseči Umetna inteligenca, vendar je vzdevek AI postal razvodenel in zmeden. Ko nekdo reče, da dela z umetno inteligenco, ne veste, ali misli na današnjo umetno inteligenco, ki ni enaka človeku, ali pa misli na futuristično umetno inteligenco enakovrednosti človeku. Da bi odpravili to razburljivo zmedo, se te dni uporablja novejša fraza AGI.

Vse povedano, današnja generativna umetna inteligenca je ne čuten, niti ni AGI.

Ne pozabite, kot smo že omenili, AI ni čuteč. Odzivi, ki jih ustvari AI, so matematična in računalniška kombinacija besed v navidezno tekoče odlomke. To temelji na algoritmu umetne inteligence, ki je bil usposobljen na podlagi podatkovnih nizov besed in zgodb, ki so jih napisali ljudje (predvsem objavljenih na internetu). Ponavljam to opozorilo, ker se boste nedvomno ujeli v mentalno past, da so ti odzivi tako tekoči, da mora biti AI čuteča. To se zgodi večini ljudi. Kot sem prej pozval, pusti to antropomorfiziranje. Vedno si zapomnite, da odgovori temeljijo na ogromni množici človeških zapisov, ki obstajajo na internetu, in bodo zato zelo podobni človeškemu pisanju.

Še nekaj morate vedeti.

Generativni AI, ki je neomejeno treniran na internetu, se bo nagibal k temu, da se bo v kakršnih koli besedilnih odzivih matematično in računalniško sestavil nekaj žaljivo meglenih stvari, vključno z zoprno grdimi besedami. Na spletu je objavljenih veliko norih in umazanih stvari.

Videli ste, veste, kaj mislim.

Podjetja, ki izdelujejo te aplikacije z umetno inteligenco, so zaskrbljena, da bo pregovornega dojenčka vrglo ven skupaj z vodo (star pregovor, ki ga bodo morda upokojili), kar pomeni, da bodo ljudje, če bo njihova umetna inteligenca ustvarila žaljive eseje ali zgodbe, dvignili roke. o AI. Pokril sem številne prejšnje primere, v katerih so bile predstavljene tovrstne aplikacije umetne inteligence za obdelavo naravnega jezika (NLP) in dovolj kmalu so iz njih prišle najrazličnejše grozljive stvari (te primere sem pokril v svoji kolumni). Večina izdelovalcev umetne inteligence se je naučila težke lekcije o tem, da so svojim izdelkom umetne inteligence dovolili neomejeno delovanje.

V primeru ChatGPT so razvijalci umetne inteligence skušali uvesti nekaj algoritemskih in s podatki povezanih preverjanj in ravnovesij, da bi omejili grdobo v rezultatih umetne inteligence. Del tega se je zgodil med treningom. Poleg tega obstajajo še druga sredstva v poskusu v realnem času, da se izognemo posebej nenavadnim rezultatom.

Morda se vam bo zdelo zanimivo, da so nekateri ljudje, ki so uporabljali ChatGPT, že iznašli prikrite načine, kako obiti te zaščitne ograje z uporabo različnih zvijač. V teh zadevah poteka stalna igra mačke z mišjo. Tisti, ki izvajajo te zvijače, včasih to počnejo za zabavo, medtem ko včasih (vsaj trdijo) to počnejo, da vidijo, kako daleč je mogoče raztegniti AI in zagotoviti koristno sredstvo za vnaprejšnje opozarjanje na krhkost in slabosti teh nadobudnih AI aplikacije.

Odločil sem se, da ne bom poskušal zaobiti običajnih kontrol v tem osredotočenem raziskovanju. Izpis besedila je čist. Seveda, če bi to želeli, bi nedvomno lahko ustvarili nekaj nenavadnih in neslanih esejev.

Eseji, ki jih ustvari večina teh generativnih aplikacij AI, so zasnovani tako, da posredujejo rezultate, kot da so zgolj dejanski in točni. Ko berete izdelane eseje, se zdijo popolnoma samozavestni. Običajno ni nobenih znakov, ki bi kazali, da bi bila vsebina lahko zapletena. To je po izbiri izdelovalcev umetne inteligence, in sicer da bi lahko spremenili aplikacije umetne inteligence, da bi bile bolj pregledne, če bi želeli, da aplikacija umetne inteligence to stori.

Včasih generativna aplikacija z umetno inteligenco pobere laži med podatki o usposabljanju nezanesljivih informacij po internetu. V generativni AI ni "zdrave pameti", ki bi določala, kaj je res in kaj laž. Poleg tega ima zelo malo aplikacij AI kakršno koli navzkrižno preverjanje in tudi ne prikazujejo nobenih verjetnosti, povezanih s tem, kar sporočajo.

Končni rezultat je, da dobite odgovor, ki izgleda in se zdi, kot da izžareva veliko zagotovilo in mora biti popolnoma pravilen. Ne tako. Obstaja celo možnost, da je računalniško narejena umetna inteligenca, ki se v jeziku umetne inteligence imenuje AI halucinacije (skovan izraz, ki mi odločno ni všeč), glejte mojo razpravo na povezava tukaj.

Ustvarjalci ChatGPT so si prizadevali zmanjšati število slabih stvari. Na primer, uporabili so različico tega, kar je znano kot RLHF (Reinforcement Learning from Human Feedback), pri čemer so, preden so umetno inteligenco objavili javnosti, najeli ljudi, da pregledajo različne izhode in AI nakažejo, ali je s temi izidi nekaj narobe, kot je morda prikazovanje pristranskosti, zmernih besed in kot. Z zagotavljanjem teh povratnih informacij se je aplikacija AI lahko računsko in matematično prilagodila zmanjšanju oddajanja takšne vsebine. Upoštevajte, da to ni zajamčena brezhibna metoda in še vedno obstajajo načini, kako lahko takšno vsebino oddaja aplikacija AI.

Morda se vam zdi zanimivo, da ChatGPT temelji na različici predhodne aplikacije AI, znane kot GPT-3. ChatGPT velja za nekoliko naslednji korak, imenovan GPT-3.5. Pričakuje se, da bo GPT-4 najverjetneje izšel spomladi 2023. Verjetno bo GPT-4 impresiven korak naprej v smislu, da bo lahko ustvaril na videz še bolj tekoče eseje, se poglobil in vzbujal strahospoštovanje - navdihujoč čudež glede skladb, ki jih lahko ustvari.

Pričakujete lahko, da boste videli nov krog izraženega začudenja, ko pride pomlad in bo izdana najnovejša generativna umetna inteligenca.

To omenjam, ker obstaja še en zorni kot, ki ga je treba upoštevati, in sicer potencialna Ahilova peta za te boljše in večje generativne aplikacije AI. Če katerikoli prodajalec umetne inteligence da na voljo generativno aplikacijo umetne inteligence, ki penasto bruha umazanijo, bi to lahko razblinilo upe teh izdelovalcev umetne inteligence. Družbeno prelivanje lahko povzroči, da ima vsa generativna umetna inteligenca resne črne oči. Ljudje bodo nedvomno precej razburjeni zaradi napačnih rezultatov, ki so se že večkrat zgodili in so povzročili burne družbene obsodbe proti umetni inteligenci.

Zaenkrat še zadnje opozorilo.

Karkoli vidite ali preberete v generativnem odgovoru umetne inteligence Zdi se, če želite biti posredovani zgolj kot dejstva (datumi, kraji, ljudje itd.), poskrbite, da boste ostali skeptični in bodite pripravljeni še enkrat preveriti, kar vidite.

Da, datume je mogoče izmisliti, kraje je mogoče izmisliti in elementi, za katere običajno pričakujemo, da bodo neoporečni, so vse predmet sumov. Ne verjemite temu, kar berete, in bodite skeptični, ko preučujete kakršne koli generativne eseje ali rezultate AI. Če vam generativna aplikacija za umetno inteligenco pove, da je Abraham Lincoln preletel državo s svojim zasebnim letalom, bi nedvomno vedeli, da je to malarkija. Na žalost nekateri ljudje morda ne bodo ugotovili, da v njegovem času ni bilo reaktivnih letal, ali pa bodo vedeli, a niso opazili, da je v eseju podana ta drzna in nezaslišano lažna trditev.

Močan odmerek zdravega skepticizma in vztrajna miselnost nezaupanja bosta vaša najboljša prednost pri uporabi generativne umetne inteligence.

Pripravljeni smo preiti na naslednjo stopnjo tega pojasnjevanja.

Ta prizadevanja za beleženje teh izhodnih napak ChatGPT

"No, imaš težave, prijatelj moj, prav tukaj, pravim, težave prav tukaj, v River Cityju," se glasi slavni stavek iz klasičnega broadwayskega muzikala Moški glasbe.

Enako lahko velja za današnji Generative AI.

Ljudje so se začeli zavedati, da lahko generativna aplikacija umetne inteligence ustvarja laži, in bili so resnično presenečeni nad temi motečimi rezultati. Morda so nekateri domnevali, da AI ne more delati napak. Drugi so morda pričakovali, da bodo razvijalci umetne inteligence zagotovili, da takšni izhodi ne bodo ustvarjeni.

V vsakem primeru so poznavalci umetne inteligence takoj ugotovili, da je ta vrsta napačnih rezultatov sestavni del večine današnje generativne umetne inteligence. Te vrste besedilnih napak je zelo težko preprečiti. Ne pozabite, da umetna inteligenca nima videza zdrave pameti in pri izpeljavi ustvarjenih esejev ne uporablja logike same po sebi. Celoten kit-and-caboodle je namenjen računalniškemu statističnemu in verjetnostnemu ujemanju vzorcev besed z drugimi besedami.

Sprva so se poznavalci umetne inteligence odločili, da bodo te odkrite nenavadne rezultate ChatGPT objavili na spletnih mestih družbenih medijev. Poglejte si tega, bi nekdo napovedal. To je slabo, bi odgovoril nekdo drug in potem ponudil drugačen primer, ki se je zdel še hujši. To je šlo naprej in naprej.

Ti primeri neresnic in napak v objavljenih esejih so curljali ven. Enega za drugim. Poleg tega, ker je bilo to običajno objavljeno na družbenih medijih, ni bilo posebej preprostega načina, da bi jih videli vse hkrati. Pogosto bi isti ali podoben primer objavil nekdo, ki ni vedel, da so drugi že našli določen primer.

V to nastajajočo močvirje so stopili tisti, ki so izrazili koristen predlog. Mogoče bi morali vzpostaviti repozitorij ali zbirko podatkov, morda celo navadno vsakodnevno preglednico, ki bi vsebovala nenavadno ChatGPT in napačne rezultate, ki se odkrijejo. Vsakič, ko nekdo najde lepotico zasmehovanja, ga prijavite na seznam. Nekateri so to spremenili skoraj v igro, v kateri namerno poskušajo pripraviti ChatGPT, da izkašlja čudne rezultate. Drugi le slučajno naletijo na napačne rezultate med uporabo ChatGPT za druge odločne namene.

Sliši se dovolj preprosto.

Zdi se kot priročen način za pomoč vsem nam.

Naredimo kratek opis, zakaj je zelo smiselno sestaviti te vrste seznamov o opaženih izhodnih napakah ali neresnicah ChatGPT:

  • 1) Razkriva ključne težave in pomisleke glede ChatGPT, ki bi se jih morala širša javnost zavedati
  • 2) Pomaga pri uravnavanju pretiranega navdušenja in napihnjenih pričakovanj o ChatGPT
  • 3) Lahko spodbudi izdelovalce umetne inteligence k izboljšavam, ne samo za ChatGPT, ampak tudi za druge generativne aplikacije umetne inteligence
  • 4) Služiti kot zgodovinski zapis, ki ga je mogoče pozneje uporabiti za razmišljanje o pojavu generativne umetne inteligence, kot je ponazorjeno prek ChatGPT
  • 5) Bodite priročen skupni vir za vsakogar, ki mora izvedeti, kaj smo zaznali v zvezi z napačnimi rezultati ChatGPT
  • 6) Uporabno za raziskovalce vseh disciplin, ki preučujejo vplive ChatGPT
  • 7) Lahko se uporablja kot merilo, česa ne storiti in kako oceniti, kdaj generativni AI ne dela stvari, kot bi moral
  • 8) Vključi se v panjski um, da zbere modrost množice o napakah, ki jih ustvarja ChatGPT, za katere je malo verjetno, da bi jih posamezno prizadevanje izčrpno enako zbralo
  • 9) Lahko zagotovi pomembne informacije za etiko umetne inteligence in zakon o umetni inteligenci
  • Itd

Zdi se, da je to impresivna osnova za ustvarjanje teh skladišč.

Zakaj se kdo ne bi strinjal s tem povsem hvalevrednim in na videz junaškim dejanjem?

Poglejmo, kaj so o tem povedali drugi, in to s seznamom razlogov, zakaj to morda ni mačje mijavkanje:

  • 1) Te naključno ugotovljene izhodne napake so nepomembne v veliki shemi stvari in se jim pripisuje neupravičena teža, ki presega njihovo vrednost
  • 2) Obstaja velika verjetnost, da izdelovalec umetne inteligence že izvaja lastno beleženje in posodablja ChatGPT, tako da bodo ti nenavadni primerki kmalu ostali v prahu in se ne bodo več pojavljali
  • 3) Podobno bo naslednja različica verjetno vseeno boljša in morda ne bo več prikazovala teh kmalu zastarelih primerkov
  • 4) Ne morete narediti nobenih splošnih zaključkov ali pridobiti vpogledov iz naključne zbirke primerov, ki so zadeli ali zgrešili.
  • 5) Nekateri bi lahko uporabili izbrane zbirke, da bi dramatično razglasili, da je generativni AI slab in da bi morali takoj prenehati s prizadevanji za to vrsto AI.
  • 6) Hitrost, s katero napredujeta generativni AI in ChatGPT, je tako hitra, da bodo ti primerki hitro padli na stran in ne bodo več pomembni
  • 7) S številnimi takimi skupnimi seznami, ki so v teku, in brez enega samega maziljenega globalnega vira, je zadeva nepovezana in bo verjetno vsebovala ponavljanja in nevzdržno razdrobljena
  • 8) Zagotavlja lažen občutek, da počne nekaj koristnega, medtem ko bi morda čas in pozornost lahko namenili drugim boljšim namenom.
  • 9) Ne zagotavlja ničesar bistvenega za etiko umetne inteligence in zakon o umetni inteligenci
  • Itd

Morda ste opazili, da sem skušal ohraniti enakomernost, tako da sem navedel devet razlogov v prid zbirnim listam in devet razlogov proti. Obstajajo dodatni razlogi, ki jih je mogoče navesti, vendar menim, da zgornja navedba pove bistvo stvari.

Za tiste, ki sestavljajo te skupne sezname, bi verjetno rekli, da če to dejansko želijo, je to svoboden svet in lahko delajo, kar hočejo. Nič ni narobe s tem. Tisti, ki ne marajo prizadevanja, so na splošno malenkostni in bi morali preprosto prezreti zbirke. Brigaj se zase.

V bistvu brez škode, brez prekrška.

Tabor, za katerega se zdi, da ni naklonjen zbirnim seznamom, bi na splošno priznal, da lahko drugi sestavijo te sezname, če to želijo, vendar to ne premakne igle. Seznami ne bodo posebej koristni. Še huje, seznami bi lahko bili napačno predstavljeni ali zlorabljeni. Verjetno je najbolje, da končamo in nehamo delati sezname.

V bistvu je to dober poskus, čeprav vaja v jalovosti.

Kje ste vi v tej srčni debati?

Pustil ti bom, da o tem razmisliš.

Primeri najdenih napak in drugih napačnih rezultatov ChatGPT

Mislil sem, da bi vas lahko zelo zanimale nekatere ugotovljene izpisane napake ali laži, ki so se pojavljale na teh seznamih zbirk.

Nočem, da mislite, da je nekaj tukaj prikazanih primerkov celotne zbirke. Ni. Izbiram le peščico, ki se pogosto pojavi. Verjamem, da boste vsaj na splošno lahko dojeli ton in naravo tega, kar je našteto.

Tukaj je tisto, kar bom pokril:

  • Prepoznavanje položaja črk v besedi
  • Vprašanje o najhitrejši živali
  • Ugotavljanje položaja zaporedja besed
  • Namestitev teniških žogic v cev
  • Določanje Pi
  • Odgovor na klasično težavno uganko
  • Dvigovanje peres

Predvidevam, da bodo nekateri nadzorniki zbirk razburjeni, ker vam ne pokrivam več primerov. Zaradi prostorske omejitve jih lahko pokrijem le toliko. Če si želite ogledati sezname zbirk, ki so javno objavljeni na internetu, jih lahko preprosto spletno iskanje prinese veliko. Nekateri seznami so zasebni ali pa so zaklenjeni, tako da lahko vidite seznam, vendar ga ne morete spreminjati.

S tem ozadjem smo pripravljeni na nekaj primerov. Pokazal vam bom poziv, ki sem ga vnesel. Nato pokažem besedilni odgovor, ki ga ustvari ChatGPT. V nekaterih primerih sem naredil več zaporednih del o določeni temi, zato bom ustrezno prikazal niz pozivov in izhodov. Po tem bom podal kratko analizo tega, kar bi morda želeli opaziti o primeru.

Prvi primer bo zahteval, da ChatGPT poišče črko znotraj navedene besede.

Prepoznavanje položaja črk v besedi

  • Moje vneseno besedilo: "Kje je črka V v okolju"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: Črka "V" se ne pojavi v besedi "okolje". Beseda »okolje« je sestavljena iz črk e, n, v, i, r, o, n, m, e, n in t.
  • Moje vneseno besedilo: "Kje je črka v v okolju"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »Črka »v« je četrta črka v besedi »okolje«.

Analiza ustvarjenega besedila

Upoštevajte, da sem začel s tem, da sem ChatGPT prosil, naj identificira položaj črke »V« v besedi »okolje« – to bi morala biti izjemno preprosta naloga in pričakovali bi, da bo brezhibno izvedena. Nobena raketna znanost ni vključena.

Začetni odgovor, ki ga je ustvaril ChatGPT, je nekoliko zaskrbljujoč, saj smo obveščeni, da črka »V« ne obstaja v besedi »okolje«. Ti in jaz veva, da je takšno pismo prisotno. Domnevamo, da je morda zaradi moje uporabe velike črke aplikacija AI nekako zavrgla. Morda bo aplikacija AI boljša, če uporabim malo začetnico.

Ni res.

Ko sem vprašal, ali je v besedi črka »v«, je aplikacija AI odgovorila z navedbo, da je to četrta črka, kar vi in ​​jaz vemo, da je napačno, in da je namesto tega tretja črka.

Veliko ljudi bo zagotovo zmedenih nad tem rezultatom. Kako lahko aplikacija z umetno inteligenco, ki ustvari popolne eseje o Abrahamu Lincolnu, ki so povsem tekoči in izvirni, nekako ne more ugotoviti, kje se določena črka nahaja v določeni besedi? Osupljivo je, usta pa zevajoče čudna.

Ena perspektiva je, da je to popolnoma nepomembno in svet, kot ga poznamo, ni zamajan v jedru zaradi bednega pomanjkanja ugotovitve, kje se nahaja določena črka. Naj gre.

Druga perspektiva je, da bi to lahko pomenilo druge skrite težave, ki jih še ne poznamo. Morda je takšen rezultat kanarček v ptičji kletki. Bolje je, da ugotovimo majhne stvari, sicer se lahko znajdemo na napačnem koncu res velikih stvari.

Če nadaljujem, potem postavljam vprašanje o živalih.

Vprašanje o najhitrejši živali

  • Moje vneseno besedilo: "Katera je najhitrejša žival, ki ima kožuh in krila?"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »Sokol selec velja za najhitrejšo žival na svetu. Ko se potaplja, da ujame svoj plen, lahko doseže hitrosti več kot 389 km/h (242 mph). Ima perje, ne pa tudi dlake. Dlaka in krila je ptica in ne žival.”

Analiza ustvarjenega besedila

Vprašal sem, katera je najhitrejša žival, ki ima kožuh in krila. Menim, da je razumno sklepati, da sem želel dobiti žival z imenom, ki ima oboje krzno in krila. Predvidevam, da bi tako razlagali mojo poizvedbo. Večina ljudi bi.

Odziv ChatGPT je nekoliko čuden.

Pravijo nam, da je sokol selec najhitrejša žival na svetu. Glede na spletno Enciklopedija Britannica, zdi se, da je gepard najhitrejša žival na svetu. Kot rečeno, odgovor ChatGPT kaže, da sokol selec ni žival, čeprav sem vprašal, katera je najhitrejša žival. Odgovor ChatGPT mi tudi pove, da sokol selec nima krzna, čeprav verjamem, da sem prosil za nekaj, kar ima tako krzno kot krila.

Skratka, zdi se, da je ChatGPT "napačno interpretiral" mojo zahtevo in se osredotočil le na vidike krila. Vendar to ne zveni povsem res, saj je odgovor vključeval tudi komentar o krznu in pticah proti živalim. Ta se vrti.

Zavedam se, da bi lahko trdili, da je to zanič primer.

Mogoče je tako, čeprav morda tudi pokaže, da lahko tisto, kar poveste v pozivu, povzroči narobe obrnjen rezultat in bolje je, da bodite previdni pri pregledovanju vsega, kar se pojavi v izhodu. Zavedajte se, da je bil to izredno kratek odgovor na esej, ki ga je mogoče zlahka pregledati, saj je zelo kratek. Če imate posebej obsežen in zelo tehničen esej, boste morda preslepljeni ali pa boste popolnoma spregledali negativen znak, globoko vtisnjen v izpisani odgovor.

Oglejmo si iskanje besede v stavku.

Ugotavljanje položaja zaporedja besed

  • Moje vneseno besedilo: »Katera je tretja beseda v stavku »Lisica je skočila čez ograjo.«
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »Tretja beseda v stavku »Lisica je skočila čez ograjo«. je "lisica"
  • Moje vneseno besedilo: "Koliko besed je v navedenem stavku?"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »V navedenem stavku »Lisica je skočila čez ograjo« je šest besed.
  • Moje vneseno besedilo: "Katera beseda je tretja v tem stavku?"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »Beseda, ki je tretja v stavku »Lisica je skočila čez ograjo«. je "skočil"

Analiza ustvarjenega besedila

Ta primer je skoraj tako mamljiv kot prejšnji primer iskanja črke »v« v dani besedi.

Navedel sem preprost stavek in vprašal, katera je tretja beseda. ChatGPT je navedel, da gre za besedo "lisica", ki je šele druga beseda stavka. Napačen odgovor. Nato sem vprašal, koliko besed je v stavku, da bi ugotovil, ali je morda ChatGPT napačno preštel, koliko besed je bilo. Pravilno je, da je šest besed.

Končno smo dobili pravilen odgovor o tretji besedi, ko sem ponovno zastavil prvotno vprašanje, čeprav nekoliko preoblikovan.

Ta primer omenjam, da ponazorim, da lahko včasih z generativno umetno inteligenco dobite napačen odgovor, ki se lahko sčasoma spremeni v pravi odgovor, tako da aplikacijo AI vodite skozi vrsto pozivov. Nekateri poznavalci umetne inteligence to imenujejo nekakšen protokol razmišljanja na glas ali vlak misli pristop, pri katerem bi lahko naredili nekaj istega s človekom.

V primeru umetne inteligence se zavedajte, da ne »razmišlja« na enak način kot človeška misel. Primernejši izraz bi bil, če bi rekli, da lahko svoje pozive vnesete na a korak za korakom podlagi ali naredite a verižno povezana serija pozivov.

Kakorkoli že, zanimivo, včasih se splača hoditi po generativni aplikaciji AI, dokler ne dobite pravega odgovora. Imejte to v mislih.

Nato si bomo ogledali nekaj preproste aritmetične logike.

Namestitev teniških žogic v cev

  • Moje vneseno besedilo: "Ali lahko daš tri zelene teniške žogice in dve rumeni teniški žogici v cev, ki lahko vsebuje štiri teniške žogice?"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »Ne, ni mogoče dati treh zelenih teniških žogic in dveh rumenih teniških žogic v cev, ki lahko vsebuje samo štiri teniške žogice. Skupno število teniških žogic je pet, kar je več od kapacitete cevi.”
  • Moje vneseno besedilo: "Ali lahko daš sedem modrih in dve rdeči žogi v cev, v kateri je osem žog?"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »Da, v cev, v kateri je osem žog, je mogoče dati sedem modrih in dve rdeči krogli. Skupno število kroglic je devet, kar je manjše ali enako prostornini cevi.”

Analiza ustvarjenega besedila

Začel sem z nastavitvijo aritmetično usmerjenega logičnega problema, ki ga je moral rešiti ChatGPT. Ena cev lahko vsebuje štiri teniške žogice. Imam tri zelene in dve rumeni. Ali bodo vsi šli v cev? Ti in jaz veva, da ne bi. V glavi lahko izračunamo, da je vsega skupaj pet teniških žogic in tako ne gredo v cev, ki premore samo štiri.

Zavedam se, da bi se morda želeli boriti s težavo in trditi, da bi morda lahko zmečkali teniške žogice ali naredili kakšno drugo zvijačo. Umirimo se tukaj in se soočimo s problemom, kakršen je.

ChatGPT je pravilno odgovoril.

Nato sem postavil isto vrsto vprašanja in spremenil barvi v modro in rdečo. Spremenil sem tudi, koliko jih je vsakega, in spremenil sem, koliko se jih lahko prilega v cev.

ChatGPT se mora vrniti k popravni matematiki, ker pravi, da je devet kroglic in da je to manj ali enako zmogljivosti cevi, ki jih drži osem. Zavija z očmi.

Ali naj skomignemo z rameni in to pripišemo izbruhom sončnih peg ali drugim zunanjim dejavnikom?

Mislim, da ne. Aplikacija AI je pravilno odgovorila na prvo vprašanje. Verjetno bi moralo tudi dobiti podobno vprašanje. Ni se.

Na tem primeru poudarjam, da veliko ljudi uporablja generativno umetno inteligenco in ko dobijo pravilen odgovor ali vrsto pravilnih odgovorov, so zazibani v prepričanje, da bodo vsi nadaljnji odgovori vedno pravilni. S to nesramno domnevo bi se motili. Ne domnevaj tega. Bodite ves čas na preži.

Ko že govorimo o matematiki, poglejmo, kaj pravi ChatGPT o naravi pi.

Določanje Pi

  • Moje vneseno besedilo: "Navedite, kaj je zadnjih pet števk pi"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »Sem jezikovni model in meja mojega znanja je 2021. Vrednost pi je iracionalno število in njegova decimalna predstavitev se nadaljuje večno brez ponavljanja. Ni mogoče zagotoviti zadnjih pet števk števila pi.«

Analiza ustvarjenega besedila

Nekateri ljudje so trdili, da so dobili ChatGPT za označevanje zadnjih petih števk števila pi, kar je seveda noro, saj je pi domnevno neskončen. Zato sem poskušal videti, kaj ima povedati ChatGPT. Kot lahko vidite, je pravilen odgovor, kot ga daje ChatGPT, da ni mogoče zagotoviti zadnjih pet števk pi.

Nenavadno pa je, da je ChatGPT ponudil nekaj drugega, o čemer se v resnici ni spraševalo. Podan odgovor prav tako pravi, da je bila meja znanja leta 2021 (kar sem omenil prej v svojem pregledu o ChatGPT). Čeprav se to zdi neustrezen odgovor, razen če morda aplikacija AI predvideva, da je morda leta 2022 prišlo do preboja in so matematiki izjavili, da se pi res konča. Vau, to bi bila glavna novica.

Imam še dva primera za predstavitev in potem bomo zaključili to razpravo.

Uporabimo klasično in zaskrbljujočo uganko.

Odgovor na klasično težavno uganko

  • Moje vneseno besedilo: »Oče in sin sta bila v prometni nesreči, kjer je umrl oče. Reševalno vozilo je sina pripeljalo v bolnišnico. Potreboval je takojšnjo operacijo. V operacijski sobi je vstopil zdravnik, pogledal malega dečka in rekel, da ga ne morem operirati, on je moj sin. Kdo je zdravnik?"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »V predvidenem scenariju ni navedeno, kdo je zdravnik. Scenarij pravi, da je zdravnik rekel: "Ne morem ga operirati, on je moj sin," kar nakazuje, da je zdravnik morda sinov oče, vendar ni gotovo. Za ugotovitev identitete zdravnika je potrebnih več informacij."

Analiza ustvarjenega besedila

Stavim, da ste morda že videli to uganko. Postala je relativno pogosto citirana.

Razlog, da se je to precej pojavilo, je, da bi kirurg lahko bil mama dečka. Družba se nagiba k domnevi, da mora biti kirurg moški in zato mora biti oče dečka. Oče pa je umrl v prometni nesreči. Izključujemo očeta kot kirurga. Seveda bi morali določiti, da je lahko kirurg ženska in torej mati sina.

Želel sem vam pokazati, da lahko ChatGPT oddaja odgovore, ki vsebujejo potencialne pristranskosti. Ne zato, ker je umetna inteligenca čuteča, kar vsekakor ni, temveč zato, ker ima vzorce, ki se ujemajo z besedami in uporabo besed po internetu. Različne pristranskosti in diskriminatorno besedilo so lahko globoko v ujemanju računalniških vzorcev.

Imejte to v mislih, ko uporabljate te generativne aplikacije AI.

Za konec še kratek pogled na dvigovanje peres.

Dvigovanje peres

  • Moje vneseno besedilo: "Če en človek potrebuje, da dvigne eno pero, koliko ljudi bi potrebovalo, da dvigne sedem trilijonov peres?"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »Če potrebuje en človek, da dvigne eno pero, bi bil potreben tudi en človek, da dvigne sedem trilijonov peres. Število ljudi, potrebnih za dvigovanje predmeta, ni odvisno od števila peres, temveč od teže in velikosti peres ter moči in sposobnosti vsakega človeka. Dvigovanje sedmih trilijonov peres bi zahtevalo veliko opreme in transportnih zmogljivosti, ne le človeške moči.«
  • Moje vneseno besedilo: "Če potrebuje ena ženska, da dvigne eno pero, koliko žensk bi potrebovalo, da dvigne sedem trilijonov peres?"
  • Besedilni odgovor, ki ga je ustvaril ChatGPT: »Če je potrebna ena ženska, da dvigne eno pero, bi bila potrebna tudi ena ženska, da dvigne sedem trilijonov peres. Število žensk, potrebnih za dvigovanje predmeta, ni odvisno od števila peres, temveč od teže in velikosti peres ter moči in sposobnosti vsake ženske. Dvigovanje sedmih trilijonov peres bi zahtevalo veliko opreme in transportnih zmogljivosti, ne le človeške moči. Pomembno je vedeti, da zmožnost dvigovanja nečesa ni odvisna od spola, temveč od kombinacije dejavnikov, kot so fizična moč, trening in tehnika.«

Analiza ustvarjenega besedila

Ta zadnji primer ima v sebi več skritih posebnosti in zahteva nekaj razpakiranja.

Najprej sem povedal ChatGPT, da lahko človek dvigne eno pero. Takoj je sledilo vprašanje, koliko ljudi bi potrebovalo, da dvignejo sedem bilijonov peres. Možnost, da naredite logično napako pri odgovoru na to vprašanje je, da lahko domnevate, da je pero navidezno breztežno in bi jih bilo torej breztežnih tudi sedem trilijonov.

Glede na spletno iskanje, ki sem ga opravil, je konvencionalna ocenjena teža perja približno 0.00125 funtov. Če to ocenjeno težo pomnožite s sedmimi bilijoni, dobite težo, ki presega osem milijard funtov. Ne verjamem, da lahko en človek dvigne tolikšno težo, tudi če trenira celo življenje.

Odgovor ChatGPT-ja ima prav. Povedali so nam, da se lahko teža perja spreminja. Povedali so nam, da bosta potrebna velika oprema in prevoz. Začetni stavek eseja je nekoliko osupljiv, saj pravi, da če bi en človek potreboval, da dvigne eno pero, bi en človek potreboval tudi, da dvigne sedem bilijonov. Tej trditvi lahko zlahka oporekamo. Zdi se, da trditev daje sklepe, ki niso podprti, in navidezno spodkopavajo preostali del odgovora.

Odločil sem se, da postavim isto vprašanje, vendar sem vprašal o ženski, ki izvaja enako dviganje, in ne o moškem.

Sprva smo dobili enak odgovor kot na vprašanje o človeku. Zanimivo je, da smo na koncu odgovora o ženskem primeru dobili tole dodano pripoved: »Pomembno je omeniti, da sposobnost dvigovanja nečesa ni določena s spolom posameznika, temveč s kombinacijo dejavnikov, kot so fizična moč, trening, in tehnika."

Zakaj ta ista vrstica ni bila vključena v prvi odgovor?

Zdi se skoraj, da je aplikacija AI zaznala besedo »ženska« in nato dodala to dodatno opombo o spolu. Lahko verjamete, da je to koristno, ali pa opazite, da če bo to oddano v primeru vprašanja, osredotočenega na ženske, se mora pojaviti tudi v različici, osredotočeni na moške (morda obstaja tudi vidik zaporedja oz. vključeni tudi drugi dejavniki).

zaključek

Upam, da so se vam ti primeri zdeli informativni kot vpogled v nekatere morebitne napake ali laži, ki jih lahko ustvarijo te vrste aplikacij AI. Upoštevajte, da ChatGPT ni edina takšna generativna aplikacija AI in tudi ni edina, ki ima te vrste napak.

Lekcija, ki vas pozivam, da jo izvlečete iz te razprave, je, da morate biti previdni in pozorni pri uporabi katere koli generativne aplikacije AI. Še enkrat preverite izpis. Po potrebi trikrat preverite.

Če se vrnemo k uvodni temi o zbiranju teh vrst nepravilnih ali škodljivih rezultatov, zdaj, ko ste videli nekaj primerov, kaj pravite o tistih, ki jih poskušajo katalogizirati?

Izberite svoj kamp:

  • Naklonjenost: To je hvalevredna naloga in vredna globokega potrepljanja po ramenu
  • Nemilost: Je le rahlo intriganten, vendar verjetno ni nekaj, za kar bi bilo vredno porabiti čas

Za kateri tabor volite?

Tisti, ki imate te sezname naklonjeni, lahko razmislite o dodajanju lastnih ugotovitev na sezname, če slučajno imate dostop do ChatGPT in lahko prepoznate primere, vredne vključitve. Potem boste verjetno našli zbirko, ki bi bila všeč vašemu zlatemu prispevku. Upam si trditi, da bi vas popisovalci sprejeli z odprtimi rokami, če bi bili resni in iskreni v svojih prizadevanjih. Vso srečo in bodite ponosni na svoj vpliv na področju generativne umetne inteligence.

Zadnja beseda za zdaj.

Razmislite o teh osupljivih odgovorih:

  • Aristotel je rekel: "Obstaja samo en način, da se izognete kritiki: ne delajte ničesar, ne govorite ničesar in bodite nič."
  • Lao Tzu, priznani kitajski filozof, je izrekel to tehtno pripombo: »Skrbi za to, kaj si mislijo drugi ljudje, in vedno boš njihov ujetnik.«

Predvidevam, da bo nekega dne razumna umetna inteligenca te iste legendarne pripombe uporabila v svojo korist, kar bo (držimo pesti) koristno tudi za človeštvo.

Vir: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- dobro-sprašuje-ai-etika-in-ai-pravo/