Generative AI ChatGPT lahko vznemirljivo požre vaše zasebne in zaupne podatke, opozarja na etiko umetne inteligence in pravo na področju umetne inteligence

Zdaj vidite svoje podatke, zdaj jih ne.

Medtem so vaši dragoceni podatki tako rekoč postali del kolektiva.

Govorim o vidiku, ki bi lahko bil precej presenetljiv za tiste med vami, ki vneto in resno uporabljate najnovejše na področju umetne inteligence (AI). Podatki, ki jih vnesete v aplikacijo AI, potencialno sploh niso povsem zasebni za vas in samo za vas. Lahko se zgodi, da bo vaše podatke uporabil izdelovalec umetne inteligence, da bi domnevno poskušal izboljšati svoje storitve umetne inteligence ali pa jih bo uporabil sam in/ali celo njihovi zavezniški partnerji za različne namene.

Zdaj ste bili vnaprej opozorjeni.

Ta predaja vaših podatkov poteka na najbolj neškodljiv način in s strani potencialno na tisoče ali več milijonov ljudi. Kako to? Obstaja vrsta umetne inteligence, znana kot generativna umetna inteligenca, ki je nedavno pritegnila velike naslovnice in navdušeno pozornost širše javnosti. Najbolj opazna izmed obstoječih generativnih aplikacij AI je ChatGPT, ki jo je razvilo podjetje OpenAI.

Za ChatGPT naj bi bilo registriranih okoli milijon uporabnikov. Zdi se, da mnogi od teh uporabnikov z veseljem preizkušajo to najbolj vročo in najnovejšo generativno aplikacijo AI. Postopek je izredno preprost. Vnesete nekaj besedila kot poziv in voila, aplikacija ChatGPT ustvari izpis besedila, ki je običajno v obliki eseja. Nekateri to označujejo kot besedilo v besedilo, čeprav ga raje označujem kot besedilo v esej, saj je to besedišče bolj vsakdanje smiselno.

Sprva bo začetni uporabnik verjetno vnesel nekaj zabavnega in brezskrbnega. Povejte mi o življenju in časih Georgea Washingtona, bi lahko nekdo vpisal kot poziv. ChatGPT bi nato pripravil esej o našem legendarnem prvem predsedniku. Esej bi bil povsem tekoč in težko bi ugotovili, da ga je ustvarila aplikacija AI. Razburljivo dogajanje.

Verjetnost je, da se bo po nekaj časa igranja segment novih uporabnikov najedel in se bo potencialno odločil, da se neha igrati s ChatGPT. Zdaj so premagali svoj FOMO (strah pred zamudo), in to po eksperimentiranju z aplikacijo AI, o kateri se zdi, da skoraj vsi klepetajo. Delo opravljeno.

Nekateri pa bodo začeli razmišljati o drugih in resnejših načinih uporabe generativne umetne inteligence.

Morda uporabite ChatGPT, da napišete tisto beležko, ki vam jo je nagovarjal vaš šef. Vse kar morate storiti je, da zagotovite poziv z točkami, ki jih imate v mislih, in naslednja stvar, ki jo poznate, je ChatGPT ustvaril celotno beležko, zaradi katere bi bil vaš šef ponosen na vas. Izdani esej kopirate iz ChatGPT, ga prilepite v uradno predlogo podjetja v svojem paketu za obdelavo besedil in eleganten memorandum po e-pošti pošljete svojemu upravitelju. Vredni ste milijon dolarjev. In uporabili ste svoje možgane, da bi našli priročno orodje, ki bo namesto vas opravilo težko delo. Potrepljajte se po hrbtu.

To še ni vse.

Da, še več je.

Ne pozabite, da lahko generativna umetna inteligenca opravlja vrsto drugih nalog, povezanih s pisanjem.

Na primer, recimo, da ste napisali nekakšno pripoved za cenjeno stranko in si močno želite pregledati material, preden gre ven.

Preprosto.

Besedilo svoje pripovedi prilepite v poziv ChatGPT in nato naročite ChatGPT, naj analizira besedilo, ki ste ga sestavili. Končni izpisani esej bi se lahko globoko poglobil v vaše besedilo in na vaše prijetno presenečenje bo poskušal navidezno pregledati pomen tega, kar ste povedali (dale presega vlogo črkovalnika ali analizatorja slovnice). Aplikacija AI lahko odkrije napake v logiki vaše pripovedi ali odkrije protislovja, za katera se niste zavedali, da so v vašem lastnem pisanju. To je skoraj tako, kot da bi najeli pretkanega človeškega urednika, da pogleda vaš osnutek in zagotovi litanije koristnih predlogov in opaženih pomislekov (no, želim kategorično izjaviti, da ne poskušam antropomorfizirati aplikacije AI, zlasti da je človeški urejevalnik človek, medtem ko je aplikacija AI zgolj računalniški program).

Hvala bogu, da ste uporabili generativno aplikacijo AI za natančno preučevanje vaše dragocene pisne pripovedi. Nedvomno bi raje, da umetna inteligenca najde te zaskrbljujoče pisne težave, ne pa potem, ko dokument pošlje vaši cenjeni stranki. Predstavljajte si, da ste sestavili pripoved za nekoga, ki vas je najel, da pripravite zelo pomembno upodobitev. Če bi odjemalcu dali prvotno različico, preden bi opravili pregled aplikacije AI, bi lahko utrpeli veliko zadrego. Stranka bi skoraj zagotovo imela resne dvome o vaših sposobnostih za opravljanje dela, ki je bilo zahtevano.

Dvignimo stavo.

Razmislite o ustvarjanju pravnih dokumentov. To je očitno še posebej resna zadeva. Besede in način, kako so sestavljene, lahko pomenijo živahno pravno obrambo ali žalostno pravno nesrečo.

Pri svojih stalnih raziskavah in svetovanju redno komuniciram s številnimi odvetniki, ki jih močno zanima uporaba umetne inteligence na področju prava. Različni programi LegalTech se povezujejo z zmogljivostmi AI. Odvetnik lahko uporabi generativno AI za sestavo osnutka pogodbe ali sestavo drugih pravnih dokumentov. Poleg tega, če je odvetnik sam naredil začetni osnutek, lahko besedilo posreduje generativni aplikaciji AI, kot je ChatGPT, da si ogleda in vidi, katere luknje ali vrzeli bi lahko odkrili. Za več informacij o tem, kako se odvetniki in pravno področje odločajo za uporabo umetne inteligence, glejte mojo razpravo na povezava tukaj.

Vendar smo pripravljeni na to.

Odvetnik vzame osnutek pogodbe in kopira besedilo v poziv za ChatGPT. Aplikacija AI pripravi pregled za odvetnika. Izkazalo se je, da ChatGPT najde več napak. Odvetnik popravi pogodbo. Lahko tudi prosijo ChatGPT, da jim predlaga preoblikovanje ali ponovitev sestavljenega besedila. Novo in boljšo različico pogodbe nato ustvari generativna aplikacija AI. Odvetnik zgrabi izpisano besedilo in ga vnese v datoteko za obdelavo besedila. Sporočilo gre njihovi stranki. Naloga opravljena.

Ali lahko uganete, kaj se je pravkar zgodilo?

V zakulisju in pod pokrovom bi lahko pogodbo pogoltnili kot riba v gobec kita. Čeprav se ta odvetnik, ki uporablja umetno inteligenco, tega morda ne zaveda, bi lahko aplikacija umetne inteligence pogoltnila besedilo pogodbe, ki je postavljeno kot poziv v ChatGPT. Zdaj je krma za ujemanje vzorcev in druge računalniške zapletenosti aplikacije AI. To pa bi lahko uporabili na različne načine. Če so v osnutku zaupni podatki, so tudi ti zdaj potencialno v mejah ChatGPT. Vaš poziv, kot je na voljo aplikaciji AI, je zdaj navidezno del kolektiva na tak ali drugačen način.

Poleg tega se objavljeni esej šteje tudi za del kolektiva. Če ste ChatGPT prosili, da za vas spremeni osnutek in predstavi novo različico pogodbe, se to razlaga kot izhodni esej. Izhodi ChatGPT so tudi vrsta vsebine, ki jo lahko aplikacija AI obdrži ali drugače preoblikuje.

Joj, morda ste po nedolžnem razkrili zasebne ali zaupne podatke. Slabo. Poleg tega se sploh ne bi zavedali, da ste to storili. Zastave niso bile dvignjene. Hupa ni zatrobila. Nobene utripajoče luči niso ugasnile, da bi vas šokirale v resničnost.

Lahko bi pričakovali, da bi nepravniki zlahka naredili takšno napako, vendar je skoraj nepredstavljivo, da bi izkušeni odvetnik naredil enako začetniško napako. Kljub temu verjetno trenutno obstajajo pravni strokovnjaki, ki delajo isto potencialno napako. Tvegajo kršitev omembe vrednega elementa privilegija med odvetnikom in stranko in morebitno kršitev vzorčnih pravil poklicnega ravnanja (MRPC) Ameriške odvetniške zbornice (ABA). Zlasti: "Odvetnik ne sme razkriti informacij v zvezi z zastopanjem stranke, razen če stranka da informirano soglasje, je razkritje implicitno dovoljeno za izvedbo zastopanja ali je razkritje dovoljeno z odstavkom (b)" (citirano iz MRPC in za katere se zdi, da izjeme, povezane s pododdelkom b, ne vključujejo uporabe generativne aplikacije AI na nevaren način).

Nekateri odvetniki bi lahko skušali opravičiti svoj prekršek s trditvijo, da niso tehnološki čarovniki in da ne bi imeli pripravljenih načinov, da bi vedeli, da je njihov vnos zaupnih informacij v generativno aplikacijo AI lahko nekakšna kršitev. ABA je pojasnila, da dolžnost odvetnikov vključuje seznanjanje z umetno inteligenco in tehnologijo s pravnega vidika: »Za ohranitev potrebnega znanja in spretnosti mora odvetnik biti na tekočem s spremembami v zakonodaji in svoji praksi, vključno s prednosti in tveganja, povezana z ustrezno tehnologijo, se vključiti v nadaljnji študij in izobraževanje ter izpolnjevati vse zahteve za nadaljnjo pravno izobrazbo, ki veljajo za odvetnika« (po MRPC).

Več določb je vključenih v to podobo pravne dolžnosti, vključno z ohranjanjem zaupnih informacij stranke (pravilo 1.6), zaščito lastnine stranke, kot so podatki (pravilo 1.15), pravilno komunikacijo s stranko (pravilo 1.4), pridobitvijo soglasja stranke po seznanitvi (pravilo 1.6), in zagotavljanje kompetentnega zastopanja v imenu stranke (pravilo 1.1). Tu je tudi malo znana, a zelo opazna resolucija, osredotočena na AI, ki jo je sprejela ABA: »Da ameriška odvetniška zbornica poziva sodišča in odvetnike, naj obravnavajo nastajajoča etična in pravna vprašanja, povezana z uporabo umetne inteligence ('AI') v pravni praksi, vključno z: (1) pristranskostjo, razložljivostjo in preglednostjo avtomatiziranih odločitev, ki jih sprejme umetna inteligenca; (2) etična in koristna uporaba umetne inteligence; in (3) kontrole in nadzor nad umetno inteligenco in prodajalci, ki zagotavljajo umetno inteligenco.«

Besede modrega za moje pravne prijatelje in sodelavce.

Bistvo zadeve je, da se lahko skoraj vsak znajde v zagati, ko uporablja generativno umetno inteligenco. Nepravniki lahko to storijo zaradi domnevnega pomanjkanja pravne bistrosti. To lahko storijo tudi odvetniki, ki so morda navdušeni nad umetno inteligenco ali pa ne globoko vdihnejo in razmišljajo o tem, kakšne pravne posledice lahko nastanejo pri uporabi generativne umetne inteligence.

Vsi smo potencialno v istem čolnu.

Prav tako se morate zavedati, da ChatGPT ni edina generativna aplikacija AI v bloku. Obstajajo tudi druge generativne aplikacije AI, ki jih lahko uporabite. Tudi oni so verjetno ukrojeni iz iste tkanine, namreč da se vhodni podatki, ki jih vnesete kot pozive, in rezultati, ki jih prejmete kot ustvarjeni izhodni eseji, štejejo za del kolektiva in jih lahko uporabi izdelovalec AI.

V današnji kolumni bom razkril naravo tega, kako so lahko podatki, ki jih vnesete, in podatki, ki jih prejmete od generativne umetne inteligence, potencialno ogroženi glede zasebnosti in zaupnosti. Proizvajalci umetne inteligence dajejo na voljo svoje licenčne zahteve in pametno bi bilo, da preberete te bistvene določbe, preden začnete aktivno uporabljati aplikacijo umetne inteligence s kakršno koli podobnostjo resničnih podatkov. Vodil vas bom skozi primer takega licenciranja za aplikacijo ChatGPT AI.

K vsemu temu pride množica premislekov o etiki umetne inteligence in pravu o umetni inteligenci.

Upoštevajte, da potekajo prizadevanja za vključitev etičnih načel umetne inteligence v razvoj in uporabo aplikacij umetne inteligence. Vse več zaskrbljenih in nekdanjih etikov umetne inteligence poskuša zagotoviti, da prizadevanja za oblikovanje in sprejetje umetne inteligence upoštevajo pogled na delovanje. AI za dobro in preprečevanje AI za slabo. Podobno so predlagani novi zakoni o umetni inteligenci, ki se razpredajo kot možne rešitve za preprečitev, da bi prizadevanja umetne inteligence ogrozila človekove pravice in podobno. Za moje stalno in obsežno pokrivanje etike in prava umetne inteligence glejte povezava tukaj in povezava tukaj, samo da navedem nekaj.

Obstajajo pomembne etične nianse in določbe AI, povezane s tem, kako lahko ali bi morali izdelovalci AI ravnati s podatki ali informacijami, ki se njihovim uporabnikom zdijo zasebne ali zaupne. Verjetno tudi veste, da vrsta obstoječih zakonov vpliva na bistvo tega, kako naj bi tehnološki subjekti ravnali s podatki. Obstaja tudi možnost, da bodo na novo predlagani zakoni o AI prečkali to isto ozemlje. Oglejte si na primer moje poročanje o Listina pravic AI in drugih pravnih sporih, ki se dogajajo glede AI, pri povezava tukaj.

Tukaj je ključni zaključek te razprave:

  • Bodite zelo, zelo, zelo previdni pri tem, katere podatke ali informacije boste vnesli v svoje pozive, ko uporabljate generativno umetno inteligenco, prav tako bodite izjemno previdni in predvidite, kakšne vrste izhodnih esejev bi lahko dobili, saj se lahko tudi rezultati absorbirajo.

Ali to pomeni, da ne bi smeli uporabljati generativne umetne inteligence?

Ne, to sploh ni tisto, kar govorim.

Uporabite generativno umetno inteligenco po mili volji. Bistvo je, da morate biti pozorni na to, kako ga uporabljate. Ugotovite, kakšne licenčne določbe so povezane z uporabo. Odločite se, ali lahko živite s temi določili. Če obstajajo načini za obveščanje izdelovalca umetne inteligence, da se želite sklicevati na določene vrste dodanih zaščit ali dovoljenj, se prepričajte, da to storite.

Omenil bom še en vidik, za katerega se zavedam, da bo nekatere ljudi razjezil. Tukaj gre. Ne glede na to, kakršna koli so licenčna določila, morate tudi domnevati, da obstaja možnost, da te zahteve ne bodo v celoti izpolnjene. Stvari lahko gredo narobe. Stvari lahko zdrsnejo med razpoke. Na koncu boste seveda morda imeli sodni postopek proti izdelovalcu umetne inteligence, ker ni upošteval njihovih določil, vendar je to nekoliko potem, ko je konj že iz hleva.

Potencialno zelo varen način za nadaljevanje bi bil nastavitev lastnega primerka v vaših lastnih sistemih, bodisi v oblaku bodisi v hiši (in ob predpostavki, da upoštevate ustrezne previdnostne ukrepe za kibernetsko varnost, ki jih nekateri seveda ne upoštevajo in so še hujši v lastnem oblaku kot z uporabo oblaka prodajalca programske opreme). Malce moteča težava pa je, da le malo generativnih obsežnih aplikacij AI to zdaj omogoča. Vsi večinoma delujejo samo na osnovi našega oblaka. Le redki so dali na voljo možnost izdelave celotnega primerka samo za vas. Predvideval sem, da se bo ta možnost pojavila postopoma, čeprav bo sprva precej draga in nekoliko zapletena, glejte moje napovedi na povezava tukaj.

Kako se sicer posebej bistri in izjemno bistroumni ljudje znajdejo v močvirju erozije zaupnosti podatkov ali informacij?

Privlačnost teh generativnih aplikacij AI je precej magnetna, ko jo začnete uporabljati. Korak za korakom se znajdete očarani in se odločite, da boste svoje prste podali vse dlje v generativne vode umetne inteligence. Naslednja stvar, ki jo poznate, je, da brez težav predate lastniško vsebino, ki naj bi ostala zasebna in zaupna, v generativno aplikacijo AI.

Uprite se želji in prosim, vzdržite se postopnega upadanja v neprijetno past.

Za vodje podjetij in vodstvene delavce na najvišji ravni velja isto opozorilo za vas in vse ljudi v vašem podjetju. Tudi višji vodje se ujamejo v navdušenje in presenečenje nad uporabo generativne umetne inteligence. Resnično lahko zamočijo in potencialno v aplikacijo AI vnesejo tajne podatke najvišje ravni.

Poleg tega imajo lahko številne lige svojih zaposlenih, ki se prav tako igrajo z generativnim AI. Številni od teh sicer pozornih uslužbencev brezglavo in blaženo vnašajo zasebne in zaupne podatke podjetja v te aplikacije z umetno inteligenco. Glede na nedavna poročila novic je Amazon očitno odkril, da so nekateri zaposleni vnašali različne zaščitene podatke v ChatGPT. Interno naj bi bilo poslano pravno usmerjeno opozorilo, naj bodo previdni pri uporabi neustavljive aplikacije AI.

Na splošno je malo ironije v naraščajočem pojavu zaposlenih, ki hočeš nočeš vnašajo zaupne podatke v ChatGPT in drugo generativno umetno inteligenco. Dovolite mi, da pojasnim. Današnja sodobna podjetja imajo običajno stroge politike kibernetske varnosti, ki so jih skrbno oblikovala in izvajala. Obstajajo številne tehnološke zaščite. Upanje je preprečiti nenamerne izpuste ključnih stvari. Nenehno bobnenje je, da bodite previdni, ko obiščete spletna mesta, bodite previdni, ko uporabljate neodobrene aplikacije itd.

Zraven prihajajo generativne aplikacije AI, kot je ChatGPT. Novice o aplikaciji AI gredo skozi streho in pritegnejo široko pozornost. Nastane norost. Ljudje v teh podjetjih, ki imajo vse te zaščite kibernetske varnosti, se odločijo za uporabo generativne aplikacije AI. Sprva se leno igrajo z njim. Nato začnejo vnašati podatke podjetja. Wham, zdaj so potencialno razkrili informacije, ki ne bi smele biti razkrite.

Sijajna nova igrača, ki čudežno zaobide milijone dolarjev izdatkov za zaščito kibernetske varnosti in stalno usposabljanje o tem, česa ne smete početi. Ampak, hej, vznemirljivo je uporabljati generativno umetno inteligenco in biti del »in« množice. Očitno je to tisto, kar šteje.

Verjamem, da razumete, da sem zelo previden.

Nato si poglejmo od blizu, kako generativni AI tehnično obravnava besedilo pozivov in izpisanih esejev. Raziskali bomo tudi nekatere licenčne pogoje, na primeru ChatGPT. Zavedajte se, da ne bom zajel celotnega obsega teh elementov licenciranja. Ne pozabite vključiti svojega pravnega svetovalca za katero koli generativno aplikacijo AI, za katero se boste morda odločili. Poleg tega se licenciranje razlikuje od izdelovalca umetne inteligence do izdelovalca umetne inteligence, poleg tega se lahko določen izdelovalec umetne inteligence odloči spremeniti svoje licenciranje, zato bodite pozorni na to, kar določa najnovejša različica licenciranja.

Pred nami je nekaj vznemirljivega razpakiranja te opojne teme.

Najprej bi se morali prepričati, da smo vsi na isti strani o tem, kaj sestavlja Generative AI in kaj ChatGPT sploh je. Ko pokrijemo ta temeljni vidik, lahko izvedemo prepričljivo oceno zrcalne metafore, povezane s to vrsto umetne inteligence.

Če že dobro poznate Generative AI in ChatGPT, lahko morda preletite naslednji razdelek in nadaljujete z razdelkom, ki mu sledi. Verjamem, da bodo vsi ostali našli poučne bistvene podrobnosti o teh zadevah, če bodo natančno prebrali razdelek in se seznanili.

Kratek uvod o Generative AI in ChatGPT

ChatGPT je univerzalni AI interaktivni pogovorno usmerjen sistem, v bistvu navidezno neškodljiv splošni chatbot, kljub temu pa ga ljudje aktivno in vneto uporabljajo na načine, ki mnoge ujamejo povsem nepripravljene, kot bom opisal v kratkem. Ta aplikacija AI uporablja tehniko in tehnologijo na področju AI, ki se pogosto imenuje Generativna AI. AI ustvarja rezultate, kot je besedilo, kar počne ChatGPT. Druge generativne aplikacije AI proizvajajo slike, kot so slike ali umetniška dela, medtem ko druge ustvarjajo zvočne datoteke ali videoposnetke.

V tej razpravi se bom osredotočil na besedilne generativne aplikacije AI, saj ChatGPT počne to.

Generativne aplikacije AI so izjemno enostavne za uporabo.

Vse kar morate storiti je, da vnesete poziv in aplikacija AI bo za vas ustvarila esej, ki se poskuša odzvati na vaš poziv. Sestavljeno besedilo se bo zdelo, kot da je esej napisan s človeško roko in umom. Če bi vnesli poziv z napisom "Povej mi o Abrahamu Lincolnu", vam bo generativni AI ponudil esej o Lincolnu. To je običajno razvrščeno kot generativni AI, ki deluje besedilo v besedilo ali nekateri temu raje pravijo besedilo v esej izhod. Kot že omenjeno, obstajajo tudi drugi načini generativne umetne inteligence, kot sta besedilo v umetnost in besedilo v video.

Vaša prva misel bi morda bila, da se ta generativna sposobnost ne zdi tako pomembna v smislu ustvarjanja esejev. Preprosto lahko opravite spletno iskanje po internetu in brez težav najdete na tone in tone esejev o predsedniku Lincolnu. V primeru generativne umetne inteligence je zanimivo, da je ustvarjeni esej razmeroma edinstven in daje izvirno kompozicijo, ne pa kopijo. Če bi poskušali nekje na spletu najti esej, ki ga je ustvarila umetna inteligenca, ga verjetno ne bi odkrili.

Generativni AI je vnaprej usposobljen in uporablja zapleteno matematično in računsko formulacijo, ki je bila vzpostavljena s preučevanjem vzorcev v napisanih besedah ​​in zgodbah po spletu. Kot rezultat preučevanja na tisoče in milijone pisnih odlomkov lahko umetna inteligenca izbruha nove eseje in zgodbe, ki so mešanica najdenega. Z dodajanjem različnih verjetnostnih funkcij je dobljeno besedilo precej edinstveno v primerjavi s tem, kar je bilo uporabljeno v naboru za usposabljanje.

Zato je prišlo do razburjenja glede tega, da lahko učenci goljufajo pri pisanju esejev zunaj učilnice. Učitelj ne more preprosto vzeti eseja, za katerega lažnivi učenci trdijo, da je njihov avtor, in poskušati ugotoviti, ali je bil kopiran iz kakšnega drugega spletnega vira. Na splošno na spletu ne bo nobenega dokončnega že obstoječega eseja, ki bi ustrezal eseju, ustvarjenemu z umetno inteligenco. Učitelj bo moral nejevoljno sprejeti, da je učenec esej napisal kot izvirno delo.

Obstajajo dodatni pomisleki glede generativne umetne inteligence.

Ena od ključnih slabosti je, da so lahko v eseje, ki jih ustvari generativna aplikacija AI, vdelane različne laži, vključno z očitno neresničnimi dejstvi, dejstvi, ki so zavajajoča prikazana, in navideznimi dejstvi, ki so v celoti izmišljena. Ti izmišljeni vidiki se pogosto imenujejo oblika AI halucinacije, krilati stavek, ki ga ne maram, vendar se žal zdi, da vseeno pridobiva na priljubljenosti (za mojo podrobno razlago o tem, zakaj je to zanič in neprimerna terminologija, glejte mojo reportažo na povezava tukaj).

Rad bi razjasnil en pomemben vidik, preden se posvetimo tej temi.

Na družabnih omrežjih je bilo nekaj čudnih pretiranih trditev o Generativna AI trdi, da je ta najnovejša različica umetne inteligence v resnici čuteča umetna inteligenca (ne, motijo ​​se!). Tisti, ki se ukvarjajo z etiko umetne inteligence in pravom o umetni inteligenci, so zlasti zaskrbljeni zaradi tega naraščajočega trenda razširjenih trditev. Lahko bi vljudno rekli, da nekateri ljudje pretiravajo, kaj današnja AI dejansko zmore. Predvidevajo, da ima AI zmogljivosti, ki nam jih še ni uspelo doseči. To je žalostno. Še huje, sebi in drugim lahko dovolijo, da se znajdejo v hudih situacijah zaradi predpostavke, da bo umetna inteligenca čuteča ali podobna človeku, da bo lahko ukrepala.

Ne antropomorfizirajte AI.

Če boste to storili, se boste ujeli v lepljivo in trdo past zanašanja, ko pričakujete, da bo AI delal stvari, ki jih ni sposoben izvesti. Glede na to je najnovejša generativna umetna inteligenca razmeroma impresivna glede na to, kaj zmore. Vendar se zavedajte, da obstajajo znatne omejitve, ki bi jih morali vedno upoštevati pri uporabi katere koli generativne aplikacije AI.

Če vas zanima hitro naraščajoče razburjenje o ChatGPT in Generative AI, sem v svoji kolumni delal osredotočeno serijo, ki se vam bo morda zdela informativna. Tukaj je kratek pogled, če vas bo katera od teh tem navdušila:

  • 1) Napovedi prihajajočega generativnega napredka AI. Če želite vedeti, kaj se bo v zvezi z umetno inteligenco verjetno odvijalo v letu 2023 in pozneje, vključno s prihajajočim napredkom v generativni umetni inteligenci in ChatGPT, boste želeli prebrati moj obsežen seznam napovedi za leto 2023 na povezava tukaj.
  • 2) Generativni AI in nasveti za duševno zdravje. Odločil sem se pregledati, kako se generativna umetna inteligenca in ChatGPT uporabljata za nasvete o duševnem zdravju, kar je problematičen trend, glede na mojo osredotočeno analizo na povezava tukaj.
  • 3) Osnove generativne umetne inteligence in ChatGPT. Ta del raziskuje ključne elemente delovanja generativne umetne inteligence in se še posebej poglobi v aplikacijo ChatGPT, vključno z analizo hrupa in fanfar na povezava tukaj.
  • 4) Napetost med učitelji in učenci zaradi generativne umetne inteligence in ChatGPT. Tu so načini, na katere bodo študentje zvijačno uporabljali generativno umetno inteligenco in ChatGPT. Poleg tega obstaja več načinov, kako se lahko učitelji spoprimejo s tem plimskim valom. glej povezava tukaj.
  • 5) Kontekst in generativna uporaba AI. Opravil sem tudi sezonsko začinjen pregled o kontekstu, povezanem z Božičkom, ki vključuje ChatGPT in generativno umetno inteligenco na povezava tukaj.
  • 6) Goljufi, ki uporabljajo generativno umetno inteligenco. Nekaj ​​zloveščih je, da so nekateri prevaranti ugotovili, kako uporabiti generativno umetno inteligenco in ChatGPT za napačno ravnanje, vključno z ustvarjanjem prevarantskih e-poštnih sporočil in celo izdelavo programske kode za zlonamerno programsko opremo, glejte mojo analizo na povezava tukaj.
  • 7) Napake začetnikov pri uporabi generativne umetne inteligence. Mnogi ljudje precenjujejo in presenetljivo premalo ocenjujejo, kar lahko storita generativni umetna inteligenca in ChatGPT, zato sem pogledal predvsem podcenjevanje, ki ga običajno naredijo novinci z umetno inteligenco, glejte razpravo na povezava tukaj.
  • 8) Spopadanje z generativnimi pozivi AI in halucinacijami AI. Opisujem vodilni pristop k uporabi dodatkov umetne inteligence za reševanje različnih težav, povezanih s poskusi vnosa ustreznih pozivov v generativni umetni inteligenci, poleg tega pa obstajajo dodatni dodatki umetne inteligence za odkrivanje tako imenovanih haluciniranih rezultatov in laži, kot pokrito pri povezava tukaj.
  • 9) Razkrivanje trditev Bonehead o odkrivanju generativnih esejev, ki jih je ustvarila umetna inteligenca. Obstaja zgrešena zlata mrzlica aplikacij z umetno inteligenco, ki razglašajo, da lahko ugotovijo, ali je kateri koli esej ustvaril človek ali umetna inteligenca. Na splošno je to zavajajoča in v nekaterih primerih neumna in nevzdržna trditev, glejte moje poročilo na povezava tukaj.
  • 10) Igranje vlog prek generativne umetne inteligence bi lahko pomenilo slabosti duševnega zdravja. Nekateri uporabljajo generativni AI, kot je ChatGPT, za igranje vlog, pri čemer se aplikacija AI odziva na človeka, kot da bi obstajal v domišljijskem svetu ali drugem izmišljenem okolju. To bi lahko imelo posledice za duševno zdravje, glej povezava tukaj.
  • 11) Razkrivanje obsega izpisanih napak in zmot. Sestavljajo se različni zbrani seznami, da bi poskušali prikazati naravo napak in laži, ki jih povzroča ChatGPT. Nekateri menijo, da je to bistveno, medtem ko drugi pravijo, da je vaja nesmiselna, glejte mojo analizo na povezava tukaj.
  • 12) Šole, ki prepovedujejo Generative AI ChatGPT, pogrešajo čoln. Morda veste, da so različne šole, kot je Ministrstvo za izobraževanje v New Yorku (NYC), razglasile prepoved uporabe ChatGPT v svojem omrežju in povezanih napravah. Čeprav se to morda zdi koristen previdnostni ukrep, ne bo premaknil igle in na žalost popolnoma zgreši čoln, glejte mojo pokritost na povezava tukaj.
  • 13) Generative AI ChatGPT bo povsod zaradi prihajajočega API-ja. Pri uporabi ChatGPT prihaja do pomembnega zasuka, in sicer, da bodo z uporabo portala API v to posebno aplikacijo AI drugi programi programske opreme lahko priklicali in uporabili ChatGPT. To bo dramatično razširilo uporabo generativne umetne inteligence in imelo opazne posledice, glejte mojo razlago na povezava tukaj.
  • 14) Načini, kako lahko ChatGPT pokvari ali se stopi. Pred ChatGPT je več možnih motečih vprašanj v smislu nelojalnega nižanja dosedanjih izjemnih pohval, ki jih je prejel. Ta analiza natančno preučuje osem možnih težav, ki bi lahko povzročile, da ChatGPT izgubi moč in celo konča v pasji uti, glejte povezava tukaj.

Morda se vam zdi zanimivo, da ChatGPT temelji na različici predhodne aplikacije AI, znane kot GPT-3. ChatGPT velja za nekoliko naslednji korak, imenovan GPT-3.5. Pričakuje se, da bo GPT-4 najverjetneje izšel spomladi 2023. Verjetno bo GPT-4 impresiven korak naprej v smislu, da bo lahko ustvaril na videz še bolj tekoče eseje, se poglobil in vzbujal strahospoštovanje - navdihujoč čudež glede skladb, ki jih lahko ustvari.

Pričakujete lahko, da boste videli nov krog izraženega začudenja, ko pride pomlad in bo izdana najnovejša generativna umetna inteligenca.

To omenjam, ker obstaja še en zorni kot, ki ga je treba upoštevati, in sicer potencialna Ahilova peta za te boljše in večje generativne aplikacije AI. Če katerikoli prodajalec umetne inteligence da na voljo generativno aplikacijo umetne inteligence, ki penasto bruha umazanijo, bi to lahko razblinilo upe teh izdelovalcev umetne inteligence. Družbeno prelivanje lahko povzroči, da ima vsa generativna umetna inteligenca resne črne oči. Ljudje bodo nedvomno precej razburjeni zaradi napačnih rezultatov, ki so se že večkrat zgodili in so povzročili burne družbene obsodbe proti umetni inteligenci.

Zaenkrat še zadnje opozorilo.

Karkoli vidite ali preberete v generativnem odgovoru umetne inteligence Zdi se, če želite biti posredovani zgolj kot dejstva (datumi, kraji, ljudje itd.), poskrbite, da boste ostali skeptični in bodite pripravljeni še enkrat preveriti, kar vidite.

Da, datume je mogoče izmisliti, kraje je mogoče izmisliti in elementi, za katere običajno pričakujemo, da bodo neoporečni, so vse predmet sumov. Ne verjemite temu, kar berete, in bodite skeptični, ko preučujete kakršne koli generativne eseje ali rezultate AI. Če vam generativna aplikacija za umetno inteligenco pove, da je Abraham Lincoln preletel državo s svojim zasebnim letalom, bi nedvomno vedeli, da je to malarkija. Na žalost se nekateri ljudje morda ne zavedajo, da letal v njegovem času ni bilo, ali pa vedo, a ne opazijo, da je v eseju podana ta nesramna in nezaslišano lažna trditev.

Močan odmerek zdravega skepticizma in vztrajna miselnost nezaupanja bosta vaša najboljša prednost pri uporabi generativne umetne inteligence.

Pripravljeni smo preiti na naslednjo stopnjo tega pojasnjevanja.

Vem, kaj za vraga se bo zgodilo s tem besedilom

Zdaj, ko imamo temelje vzpostavljene, se lahko poglobimo v podatke in informacije pri uporabi generativne umetne inteligence.

Najprej na kratko razmislimo, kaj se zgodi, ko v poziv za ChatGPT vnesete nekaj besedila. Ne vemo zagotovo, kaj se dogaja znotraj ChatGPT, saj program velja za lastniškega. Nekateri so poudarili, da to spodkopava občutek preglednosti glede aplikacije AI. Nekoliko huda pripomba je, da je za podjetje, ki se imenuje OpenAI, njihov AI dejansko zaprt za javni dostop in ni na voljo kot odprta koda.

Pogovorimo se o tokenizaciji.

Ko v poziv vnesete golo besedilo in pritisnete vrnitev, se domnevno takoj zgodi pretvorba. Besedilo se pretvori v obliko, sestavljeno iz žetonov. Žetoni so poddeli besed. Na primer, beseda "hamburger" bi bila običajno razdeljena na tri žetone, sestavljene iz delov "šunka", "bur" in "ger". Osnovno pravilo je, da žetoni ponavadi predstavljajo približno štiri znake ali se štejejo za približno 75 % običajne angleške besede.

Vsak žeton se nato preoblikuje v številko. Različne notranje tabele določajo, kateri žeton je dodeljen določeni številki. To pomeni, da je besedilo, ki ste ga vnesli, zdaj v celoti niz številk. Te številke se uporabljajo za računalniško analizo poziva. Poleg tega omrežje za ujemanje vzorcev, ki sem ga omenil prej, prav tako temelji na tokeniziranih vrednostih. Končno se pri sestavljanju ali generiranju izhodnega eseja ti številski žetoni najprej uporabijo, nato pa se žetoni, preden se prikažejo, pretvorijo nazaj v nize črk in besed.

Razmislite o tem za trenutek.

Ko ljudem povem, da tako deluje mehanika obdelave, so pogosto osupli. Domnevali so, da mora generativna aplikacija AI, kot je ChatGPT, uporabljati popolnoma integrativne besede. Logično domnevamo, da so besede temeljni kamen za statistično prepoznavanje odnosov v pisnih pripovedih in sestavkih. Izkazalo se je, da obdelava dejansko uporablja žetone. Morda to še povečuje presenečenje nad tem, kako se zdi, da računalniški proces precej prepričljivo posnema človeški jezik.

Vodil sem vas skozi ta postopek zaradi ene pogoste napačne predstave, ki se zdi, da se širi naokoli. Zdi se, da nekateri verjamejo, da ker se vaše pozivno besedilo pretvori v številske žetone, ste varni in zdravi, da notranjost aplikacije AI nekako nima več vašega prvotno vnesenega besedila. Tako trdijo, da tudi če ste v poziv vnesli zaupne podatke, nimate skrbi, saj je bilo vse navidezno tokenizirano.

Ta ideja je zmota. Pravkar sem poudaril, da je mogoče numerične žetone zlahka vrniti v besedilno obliko črk in besed. Enako bi lahko storili s pretvorjenim pozivom, ki je bil tokeniziran. Tokenizacija ni nič čarobnega zaščitnega. Kot rečeno, po pretvorbi v žetone, če obstaja dodaten postopek, ki se odloči, da bo izpustil žetone, jih premikal in drugače premešal ali sekal stvari, v tem primeru res obstaja možnost, da nekateri deli izvirnika poziva niso več nedotaknjeni (in ob predpostavki, da izvirna kopija ni drugače obdržana ali shranjena nekje interno).

Naslednjič bi si rad ogledal različna obvestila in licenčna določila ChatGPT.

Ko se prijavite v ChatGPT, se prikaže vrsta opozoril in informativnih komentarjev.

Tukaj so:

  • "Občasno lahko ustvari napačne informacije."
  • "Občasno lahko ustvari škodljiva navodila ali pristransko vsebino."
  • "Usposobljen za zavrnitev neprimernih zahtev."
  • "Naš cilj je pridobiti zunanje povratne informacije, da bi izboljšali naše sisteme in jih naredili varnejše."
  • »Čeprav imamo vzpostavljene zaščitne ukrepe, lahko sistem občasno ustvari nepravilne ali zavajajoče informacije in ustvari žaljivo ali pristransko vsebino. Ni namenjeno dajanju nasvetov.«
  • "Pogovore lahko pregledajo naši trenerji AI, da izboljšajo naše sisteme."
  • "Prosim, v svojih pogovorih ne delite občutljivih informacij."
  • »Ta sistem je optimiziran za dialog. Sporočite nam, ali je bil določen odgovor dober ali neuporaben.«
  • "Omejeno poznavanje sveta in dogodkov po letu 2021."

Dva od navedenih opozoril sta še posebej pomembna za to razpravo. Poglejte šesto označeno točko in sedmo označeno točko.

Razpakirajmo ta dva:

"Pogovore lahko pregledajo naši trenerji AI, da izboljšajo naše sisteme."

Ta šesta označena točka pojasnjuje, da lahko besedilne pogovore pri uporabi ChatGPT pregleda ChatGPT prek svojih »trenerjev AI«, kar se izvaja za izboljšanje njihovih sistemov. Obveščamo vas, da lahko vsi vaši vneseni besedilni pozivi in ​​ustrezni izpisani eseji, ki so vsi del "pogovora", ki ga vodite s ChatGPT, v celoti vidijo njihovi ljudje. Predlagana utemeljitev je, da se to naredi za izboljšanje aplikacije AI, povedali pa so nam tudi, da gre za vrsto delovne naloge, ki jo opravljajo njihovi trenerji AI. Mogoče je tako, vendar je rezultat ta, da so vas opozorili, da lahko pogledajo vaše besedilo. Pika, pika.

Če bi z vašim besedilom naredili kaj drugega, bi verjetno poiskali pravni nasvet o tem, ali so presegli predlagane meje zgolj pregleda besedila za namene izboljšave sistema (ob predpostavki, da vam je uspelo odkriti, da so to storili, kaj od se zdi malo verjetno). Kakorkoli že, lahko si predstavljate pravno prepir, ko jih poskušate pripeti na to, in njihove poskuse, da bi se rešili, da bi jih ujeli, ker so nekako kršili meje svoje izjave o zavrnitvi odgovornosti.

"Prosim, v svojih pogovorih ne delite občutljivih informacij."

Sedma označena točka označuje, da v svojih pogovorih ne delite nobenih občutljivih informacij. To se zdi relativno preprosto. Predvidevam, da se lahko pogovarjate o tem, iz česa je sestavljena definicija občutljivih informacij. Poleg tega vam označena točka ne pove, zakaj ne bi smeli deliti občutljivih podatkov. Če boste morali nekega dne poskušati in v hudem znoju razložiti, zakaj ste nespametno vnesli zaupne podatke, lahko poskusite z dvignjeno obrvjo trditi, da je bilo opozorilo nespecifično, torej niste dojeli pomena. Zadrži dih na tem.

Skratka, upam si trditi, da večina ljudi, ki sem jih videl uporabljati ChatGPT, navadno ne prebere označenih točk ali pa preleti previdnostne ukrepe z oznakami in samo prikima z glavo, kot da je običajno blebetanje, da vidite vse čas. Zdi se, da si redki jemljejo opozorila strogo k srcu. Ali je to napaka prodajalca, ker varnostni ukrepi niso bili bolj izraziti? Ali pa naj domnevamo, da bi morali biti uporabniki odgovorni in pozorno prebrati, razumeti ter nato ravnati preudarno na podlagi opozoril?

Nekateri celo trdijo, da bi vas morala aplikacija AI vedno znova opozarjati. Vsakič, ko vnesete poziv, bi morala programska oprema prikazati opozorilo in vas vprašati, ali želite zadeti vrnitev. Vedno znova. Čeprav bi se to morda zdelo koristen previdnostni ukrep, bi res razdražilo uporabnike. Vpleten je trn kompromis.

V redu, to so torej očitna opozorila, ki so predstavljena vsem uporabnikom, da jih zlahka vidijo.

Uporabniki, ki bi lahko bili bolj radovedni, bi se lahko odločili za nekatere podrobne licenčne pogoje, ki so objavljeni tudi na spletu. Dvomim, da mnogi to počnejo. Moja slutnja je, da le redki resno pogledajo označene točke, ko se prijavijo, in še redkeje si nato ogledajo podrobnosti o licenciranju. Še enkrat, dandanes smo vsi nekoliko otopeli na takšne stvari. Ne opravičujem vedenja, le ugotavljam, zakaj do njega pride.

Preučil bom nekaj odlomkov iz objavljenih licenčnih pogojev.

Najprej je tukaj definicija tega, kaj se jim zdi »vsebina«, povezana z uporabo ChatGPT:

  • »Vaša vsebina. Storitvam lahko zagotovite vnos (»vhod«) in prejmete izhod, ki ga storitve ustvarijo in vrnejo na podlagi vnosa (»izhod«). Vhod in izhod sta skupaj »vsebina«. V medsebojnem razmerju in v obsegu, ki ga dovoljuje veljavna zakonodaja, ste lastnik vseh vhodnih podatkov in v skladu z vašo skladnostjo s temi pogoji vam OpenAI s tem dodeli vse svoje pravice, naslov in delež v izhodu. OpenAI lahko po potrebi uporablja vsebino za zagotavljanje in vzdrževanje storitev, skladnost z veljavno zakonodajo in uveljavljanje naših pravilnikov. Odgovorni ste za vsebino, vključno z zagotavljanjem, da ne krši nobene veljavne zakonodaje ali teh pogojev.”

Če natančno preučite to definicijo, boste opazili, da OpenAI izjavlja, da lahko uporablja vsebino, kot se jim zdi potrebno za vzdrževanje svojih storitev, vključno z upoštevanjem veljavnih zakonov in uveljavljanjem svojih pravilnikov. To je za njih priročna beseda. V prihodnji eni od svojih kolumn bom razpravljal o drugačni, a povezani temi, zlasti o pravicah intelektualne lastnine (IP), ki jih imate v zvezi z vnesenimi besedilnimi pozivi in ​​izpisanimi eseji (to poudarjam tukaj od definicije Vsebina se nanaša na to temo).

V nadaljnjem delu izrazov, označenem kot razdelek c, omenjajo ta vidik: »Ena od glavnih prednosti modelov strojnega učenja je, da jih je mogoče sčasoma izboljšati. Za pomoč OpenAI pri zagotavljanju in vzdrževanju storitev se strinjate in dajete navodila, da smemo uporabljati vsebino za razvoj in izboljšanje storitev.« To je podobno prej obravnavanemu opozorilu v eni vrstici, ki se prikaže, ko se prijavite v ChatGPT.

Ločen dokument, ki je povezan s tem, ponuja nekaj dodatnih vidikov o teh pomembnih zadevah:

  • »Kot del tega nenehnega izboljševanja, ko uporabljate modele OpenAI prek našega API-ja, lahko podatke, ki nam jih posredujete, uporabimo za izboljšanje naših modelov. Ne samo, da to pomaga našim modelom, da postanejo natančnejši in boljši pri reševanju vaše specifične težave, pomaga tudi izboljšati njihove splošne zmogljivosti in varnost. Zavedamo se, da sta zasebnost in varnost podatkov ključnega pomena za naše stranke. Za zaščito vaših podatkov zelo skrbimo za uporabo ustreznih tehničnih in procesnih kontrol. Iz podatkov, ki jih nameravamo uporabiti za izboljšanje delovanja modela, odstranimo vse podatke, ki omogočajo osebno identifikacijo. Prav tako uporabljamo le majhen vzorec podatkov na stranko za naša prizadevanja za izboljšanje učinkovitosti modela. Na primer, za eno nalogo je največje število zahtev API, ki jih vzorčimo na stranko, omejeno na 200 vsakih 6 mesecev« (izvleček iz dokumenta z naslovom »Kako se vaši podatki uporabljajo za izboljšanje zmogljivosti modela«).

Upoštevajte, da določilo navaja, da se določba nanaša na uporaba API-ja kot sredstvo za povezovanje in uporabo modelov OpenAI. Nekoliko nejasno je, ali to enako velja za končne uporabnike, ki neposredno uporabljajo ChatGPT.

V drugem dokumentu, ki vsebuje njihov seznam različnih pogostih vprašanj, ponujajo vrsto vprašanj in odgovorov, od katerih se dva zdita še posebej pomembna za to razpravo:

  • »(5) Kdo si lahko ogleda moje pogovore? Kot del naše zavezanosti varni in odgovorni umetni inteligenci pregledujemo pogovore, da izboljšamo svoje sisteme in zagotovimo, da je vsebina v skladu z našimi pravilniki in varnostnimi zahtevami.«
  • »(8) Ali lahko izbrišete določene pozive? Ne, določenih pozivov ne moremo izbrisati iz vaše zgodovine. Prosimo, da v svojih pogovorih ne delite nobenih občutljivih informacij.«

Obstaja dodaten dokument, ki pokriva njihovo politiko zasebnosti. Piše tole: »Zbiramo informacije, ki bi jih same ali v kombinaciji z drugimi informacijami, ki jih imamo, lahko uporabili za vašo identifikacijo (»osebni podatki«)« in nato nadaljuje z razlago, da lahko uporabijo podatke dnevnika, podatke o uporabi, informacije o komunikaciji, podatke o napravi, piškotke, analitiko in druge potencialno zbiralne informacije o vas. Ne pozabite prebrati drobnega tiska.

Mislim, da v veliki meri predstavlja ogled nekaterih premislekov, ki so podlaga za uporabo vaših podatkov. Kot sem omenil na začetku, ne bom s težavo prestopil vseh licenčnih pogojev.

Upajmo, da vas bo to spravilo v razmišljanje o teh zadevah in vam bo ostalo v mislih.

zaključek

Povedal sem že prej in bom ponovil, ne vnašajte zaupnih ali zasebnih podatkov v te generativne aplikacije AI.

Upoštevajte nekaj uporabnih nasvetov ali možnosti glede tega modrega nasveta:

  • Premislite, preden uporabite Generative AI
  • Vnaprej odstranite stvari
  • Zamaskiraj ali ponaredi svoj vnos
  • Nastavite svoj primerek
  • Ostalo

Nato bom navedel, iz česa je sestavljen vsak od njih. Nastavitev lastnega primerka je bila prej opisana tukaj. Uporaba »drugega« na mojem seznamu je posledica možnosti drugih načinov za obvladovanje preprečevanja vključitve zaupnih podatkov, kar bom podrobneje obravnaval v prihodnji objavi v kolumni.

Preglejmo te:

  • Premislite, preden uporabite Generative AI. Eden od pristopov vključuje popolno izogibanje uporabi generativne umetne inteligence. Ali pa vsaj dvakrat premislite, preden to storite. Predvidevam, da najvarnejša pot vključuje neuporabo teh aplikacij AI. Toda tudi to se zdi precej hudo in skoraj pretirano.
  • Vnaprej odstranite stvari. Drug pristop je sestavljen iz odstranjevanja zaupnih ali zasebnih informacij iz vsega, kar vnesete kot poziv. V tem smislu, če vanj ne vstopite, ni možnosti, da bi se vlil v Borg. Slaba stran je, da morda odstranitev zaupnega dela nekako zmanjša ali spodkoplje tisto, kar poskušate pripraviti do tega, da generativni AI naredi namesto vas.
  • Zakrijte ali ponaredite svoje vnose. Svoje predlagano besedilo lahko spremenite tako, da spremenite podatke, tako da je vse, kar se je zdelo zaupno ali zasebno, zdaj prikazano drugače. Na primer, namesto pogodbe, ki omenja Widget Company in Johna Smitha, spremenite besedilo tako, da se nanaša na Specious Company in Jane Capone. Tukaj je vprašanje, ali boste opravili dovolj izčrpno delo, tako da bodo vsi zaupni in zasebni vidiki popolnoma spremenjeni ali ponarejeni. Enostavno bi bilo spregledati nekaj oblakov in pustiti stvari, ki jih tam ne bi smelo biti.

Tukaj je zanimiv dodatek, zaradi katerega bi lahko vaš nogec še naprej razmišljal o tej temi. Če lahko popolnoma zagotovite, da noben od vaših pozivov za vnos ne vsebuje nobenih zaupnih informacij, ali to pomeni, da vam ni treba imeti trohice skrbi, da izpisani eseji vsebujejo tudi vaše zaupne informacije?

To bi se zdelo aksiomatsko res. Ni zaupnega vnosa, ni zaupnega izhoda.

Tukaj je vaš osupljiv preobrat.

Generativni AI je pogosto nastavljen tako, da se računalniško znova usposobi iz besedilnih pozivov, ki so na voljo. Podobno je generativna umetna inteligenca pogosto oblikovana za računalniško prekvalificiranje iz objavljenih esejev. Vse to preusposabljanje je namenjeno izboljšanju zmogljivosti generativne umetne inteligence.

V eni od mojih drugih kolumn sem opisal naslednji poskus, ki sem se ga lotil. Odvetnik je poskušal odkriti novo sredstvo za reševanje pravnega vprašanja. Po izčrpnem pregledu pravne literature se je zdelo, da so bili najdeni vsi že prikazani koti. Z uporabo generativne umetne inteligence smo dobili aplikacijo umetne inteligence za ustvarjanje novosti pravnega pristopa, ki na videz še ni bil identificiran. Veljalo je, da še nihče drug ni pristal na tej pravni drži. Pravna zlata kepa, tako rekoč. To bi lahko bilo strateško dragoceno konkurenčno pravno bonanza, ki bi jo bilo mogoče ob pravem času uporabiti in izkoristiti.

Ali ta izpisani esej predstavlja obliko zaupnih informacij, tako da jih je ustvaril AI za to določeno osebo in vsebuje nekaj posebnega in na videz edinstvenega?

Aha, to nas pripelje do druge sorodne in prepletene teme o lastništvu in pravicah intelektualne lastnine, povezanih z generativno umetno inteligenco. Ostanite z nami, da vidite, kako se bo to izšlo.

Končna pripomba za zdaj.

Sofoklej je povedal tole modrost: »Ničesar ne delaj na skrivaj; kajti čas vse vidi in sliši in vse razkrije.« Predvidevam, da bi lahko posodobili besedilo in trdili, da so generativni AI in tisti, ki oblikujejo in vzdržujejo AI, sposobni videti vse.

To je skromen simbolični nasvet, ki si ga je vredno zapomniti.

Vir: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etika-in-pravo/