Etika umetne inteligence in psihološka inokulacija, ki jo povzroča umetna inteligenca, za pomoč ljudem pri dezinformacijah

Kaj bomo storili glede ogromne količine dezinformacij in dezinformacij?

Vse skupaj je očitno z vsakim dnem slabše in slabše.

Morda nam lahko na pomoč priskoči umetna inteligenca (AI). Da, tako je, morda bomo lahko izkoristili koristne uporabe umetne inteligence, da bi se spopadli z našim neusmiljenim cunamijem dezinformacij in napačnih informacij. Morda bi bilo pametno, da to poskusimo. Vsaka pot potencialne rešitve se zdi vredna zasledovanja.

Poleg tega bi rad takoj potrdil in opozoril, da bo umetna inteligenca nedvomno Prav tako tudi ti bodi del problema. Nobenega dvoma ni, da lahko ljudje zlahka uporabijo AI za ustvarjanje dezinformacij in dezinformacij. Poleg tega se lahko umetna inteligenca zahrbtno uporabi, da se dezinformacije in dezinformacije zdijo neverjetno veljavne, in preslepi ljudi, da verjamejo, da so predstavljene informacije privlačno točne in dejanske. Odločno žalosten obraz tega, kar umetna inteligenca prinaša na mizo. K tej slabi uganki se bomo vrnili proti koncu te razprave.

Za zdaj si nadenimo nasmejane obraze in raziščimo, kako je umetna inteligenca koristna pri spravljanju dezinformacij in napačnih informacij na svoja mogočna kolena. Eden od pomembnih podtokov bo ta, da se vse to povezuje z bistvenimi elementi etike umetne inteligence. Moja kolumna o etiki umetne inteligence in etični umetni inteligenci je stalna in obsežna, vključno z povezava tukaj in povezava tukaj, samo da navedem nekaj.

Razmislite o teh temeljnih načinih, kako je lahko umetna inteligenca še posebej koristen zaveznik v vojni proti dezinformacijam in dezinformacijam:

  • Stop At The Get-Go: Umetno inteligenco je mogoče uporabiti za odkrivanje in poskus izločanja dezinformacij in dezinformacij, preden pridejo na dan
  • Filtriraj pred ogledom: AI se lahko uporablja za filtriranje dezinformacij in napačnih informacij, tako da vam ni treba skrbeti, da jih boste videli
  • Pripravite se, da boste imuni: Umetno inteligenco je mogoče uporabiti za krepitev vaše pripravljenosti in sposobnosti spopadanja z dezinformacijami in dezinformacijami (znano nekoliko uradno kot zagotavljanje neke vrste psihološke cepitve)
  • Ostalo

Prva navedena alineja vključuje poskuse zaustavitve dezinformacij in dezinformacij v najzgodnejšem možnem trenutku, preden vsebina pride v svet.

To je zelo problematičen pristop. Nekateri bi glasno trdili, da je to morda poskus Big Brotherja, da zatre svobodo govora. Kako daleč bi lahko šel ta AI? Ali lahko ljudem prepreči svobodno izražanje svojih stališč? To grozljivo bi lahko postalo spolzko pobočje umetne inteligence, ki bi nazadnje postala najhujša nočna mora zlih rezultatov, ki se je nedolžno začelo z najboljšimi nameni.

Prepričan sem, da razumete sliko.

Druga točka je nekoliko bolj zmerna in nakazuje, da bi lahko uporabili AI za filtriranje vsebine namesto nas.

Morda imate filtrirnega bota z umetno inteligenco, ki bo pregledal vse vaše dohodne vire podatkov iz različnih novic in drugih virov. Umetna inteligenca je prilagojena za prestrezanje dezinformacij ali dezinformacij, ki ustrezajo vašim osebnim merilom. Tako v takem scenariju ne gre za cenzuro Big Brotherja. Vi nadzirate umetno inteligenco in to, kako v vašem imenu filtrira vaš pravi nabiralnik z informacijami.

Sliši se kar dobro.

Obstaja pa nekaj omembe vrednih pomislekov.

Na primer, v svojih pogledih smo že močno polarizirani in ta uporaba umetne inteligence bi lahko to polarizacijo naredila globljo in temnejšo. Predstavljajte si, da s tem prefinjenim AI, ki deluje neprekinjeno 24 × 7, nikoli ne potrebujete niti kančka informacije, ki ste jo označili kot potencialno dezinformacijo in dezinformacijo. Zdaj je skoraj zagotovljeno, da bo vaša polarizirana perspektiva ostala nedotaknjena. Ves dan in kadar koli si želite ogledati informacije, ki čakajo na vašo pozornost, so vedno v celoti vnaprej izbrane in ni možnosti, da bi pogledali tako imenovane dezinformacije in dezinformacije.

Pravim, da so dezinformacije in dezinformacije lahko tako imenovani ker obstaja ogromno polemik o tem, kaj dejansko so dezinformacije in dezinformacije. Nekateri strokovnjaki vztrajajo, da obstaja absolutna podlaga za ugotavljanje, kaj so dezinformacije in kaj dezinformacije. Obstaja prav in narobe. Vse je mogoče izračunati, ne da bi se zmotili, da je nekaj dezinformacija ali dezinformacija.

Vsi ne vidijo stvari kot tako jasne.

Pregovorno medsebojno izključujoče dihotomično nasprotje on-ali-off naj bi bilo zavajajoče mišljenje. Dezinformacija ene osebe se morda ne šteje za dezinformacijo druge osebe. Enako glede dezinformacij. Trditev je, da se dezinformacije in dezinformacije razlikujejo glede na naravo in obseg. Poskus dokončne razvrstitve vseh informacij na en ali drug kup je veliko težje, kot kaže mahanje z roko.

Bistvo je, da ima druga točka o uporabi umetne inteligence kot filtrirnega mehanizma svoje kompromise. Ni dvoma, da se bo umetna inteligenca vse bolj uporabljala za to. Hkrati se moramo zavedati izzivov, ki jih bo takšna umetna inteligenca postavila v ospredje. Umetna inteligenca kot filter za dezinformacije in dezinformacije ni nekaj srebrnega naboja ali udarca.

To nas pripelje do tretje točke, in sicer možnosti uporabe umetne inteligence, da bi se ljudje bolje spopadli z dezinformacijami in dezinformacijami.

Dvomim, da ste verjetno že veliko slišali o tej tretji poti uporabe AI v tem kontekstu. Šele se je začelo pojavljati. Zdaj ste na samem vrhu nečesa, kar bo verjetno raslo in se bo postopoma začelo uporabljati. Zavedajte se, da bo z naraščanjem te priljubljenosti postala zelo vidna tudi polemika o tem, ali je to primeren pristop.

Del težave je, da se umetna inteligenca nekoliko uporablja za tisto, kar bi nekateri slabšalno imenovali igranje miselnih iger z ljudmi.

To se zdi zlovešče.

To nas pripelje tudi na področje etike umetne inteligence.

Vse to je povezano tudi s trezno nastajajočimi pomisleki glede današnje umetne inteligence in zlasti glede uporabe strojnega in globokega učenja kot oblike tehnologije in načina njihove uporabe. Vidite, obstajajo uporabe ML/DL, ki običajno vključujejo antropomorfizacijo umetne inteligence s strani širše javnosti, pri čemer verjamejo ali se odločijo domnevati, da je ML/DL čuteča umetna inteligenca ali blizu (ni). Poleg tega lahko ML/DL vsebuje vidike ujemanja računalniških vzorcev, ki so nezaželeni ali popolnoma nepravilni ali nezakoniti z etičnega ali pravnega vidika.

Morda bi bilo koristno najprej razjasniti, kaj mislim, ko govorim o umetni inteligenci na splošno, in podati tudi kratek pregled strojnega učenja in globokega učenja. Obstaja velika zmeda glede tega, kaj pomeni umetna inteligenca. Prav tako bi vam rad predstavil zapovedi etike umetne inteligence, ki bodo še posebej sestavni del preostanka tega diskurza.

Navedba zapisa o AI

Prepričajmo se, da smo na isti strani glede narave današnje umetne inteligence.

Danes ni nobene umetne inteligence, ki bi bila čuteča.

Tega nimamo.

Ne vemo, ali bo čuteča umetna inteligenca možna. Nihče ne more ustrezno napovedati, ali bomo dosegli čutečo umetno inteligenco, niti ali bo čuteča umetna inteligenca nekako čudežno spontano nastala v obliki računalniške kognitivne supernove (običajno imenovane Singularnost, glejte moje poročanje na povezava tukaj).

Zavedajte se, da današnja umetna inteligenca ni sposobna »razmišljati« na kakršen koli način, enako kot človeško razmišljanje. Ko komunicirate z Alexo ali Siri, se morda zdi, da so pogovorne zmožnosti podobne človeškim zmožnostim, vendar je v resnici računalniška in nimajo človeškega spoznanja. Najnovejša doba umetne inteligence je v veliki meri uporabljala strojno učenje in globoko učenje, ki izkoriščata računalniško ujemanje vzorcev. To je privedlo do sistemov umetne inteligence, ki imajo videz nagnjenj, podobnih človeškim. Medtem pa danes ni nobene umetne inteligence, ki bi imela videz zdrave pameti, in tudi ne kognitivnega čudesa robustnega človeškega razmišljanja.

Del problema je naša težnja po antropomorfizaciji računalnikov in zlasti AI. Ko se zdi, da računalniški sistem ali umetna inteligenca deluje na načine, ki jih povezujemo s človeškim vedenjem, obstaja skoraj velika želja, da bi sistemu pripisali človeške lastnosti. To je običajna miselna past, ki lahko zgrabi tudi najbolj nepopustljivega skeptika glede možnosti, da doseže razum.

Do neke mere je zato etika umetne inteligence in etična umetna inteligenca tako ključna tema.

Navodila etike umetne inteligence nas spodbujajo, da ostanemo pozorni. Tehnologi umetne inteligence se lahko včasih ukvarjajo s tehnologijo, zlasti z optimizacijo visoke tehnologije. Ni nujno, da upoštevajo širše družbene posledice. Imeti miselnost etike umetne inteligence in to vključiti v razvoj in uporabo umetne inteligence je bistvenega pomena za ustvarjanje ustrezne umetne inteligence, vključno z oceno, kako podjetja sprejmejo etiko umetne inteligence.

Poleg uporabe etičnih predpisov umetne inteligence na splošno obstaja ustrezno vprašanje, ali bi morali imeti zakone, ki bi urejali različne uporabe umetne inteligence. Na zvezni, državni in lokalni ravni se zbirajo novi zakoni, ki zadevajo obseg in naravo oblikovanja AI. Prizadevanje za pripravo in sprejetje takih zakonov je postopno. Etika umetne inteligence služi vsaj kot vmesna vrzel in bo skoraj zagotovo do neke mere neposredno vključena v te nove zakone.

Zavedajte se, da nekateri odločno trdijo, da ne potrebujemo novih zakonov, ki pokrivajo AI in da naši obstoječi zakoni zadostujejo. Vnaprej opozarjajo, da bomo, če bomo sprejeli nekatere od teh zakonov o umetni inteligenci, ubili zlato gos z zajezitvijo napredka v umetni inteligenci, ki ponuja ogromne družbene prednosti. Oglejte si na primer moje poročilo na povezava tukaj.

V prejšnjih stolpcih sem obravnaval različna nacionalna in mednarodna prizadevanja za oblikovanje in uveljavitev zakonov, ki urejajo umetno inteligenco, glejte povezava tukaj, na primer. Pokril sem tudi različna načela in smernice etike umetne inteligence, ki so jih opredelili in sprejeli različni narodi, vključno na primer s prizadevanji Združenih narodov, kot je Unescov sklop etike umetne inteligence, ki ga je sprejelo skoraj 200 držav, glej povezava tukaj.

Tukaj je koristen temeljni seznam etičnih meril ali značilnosti umetne inteligence v zvezi s sistemi umetne inteligence, ki sem jih že natančno raziskal:

  • Preglednost
  • Pravičnost in pravičnost
  • Nezlobnost
  • odgovornost
  • Zasebnost
  • Dobrotje
  • Svoboda in avtonomija
  • Zaupajte
  • Trajnostni razvoj
  • Dostojanstvo
  • Solidarnost

Ta načela etike umetne inteligence naj bi resno uporabljali razvijalci umetne inteligence, skupaj s tistimi, ki upravljajo prizadevanja za razvoj umetne inteligence, in celo tisti, ki na koncu izvajajo in vzdržujejo sisteme umetne inteligence. Vse zainteresirane strani v celotnem življenjskem ciklu razvoja in uporabe umetne inteligence so obravnavane v okviru spoštovanja že vzpostavljenih norm etične umetne inteligence. To je pomemben poudarek, saj je običajna predpostavka, da morajo »samo kodirniki« ali tisti, ki programirajo umetno inteligenco, upoštevati pojme etike umetne inteligence. Kot je bilo že poudarjeno v tem dokumentu, je potrebna vas, da zasnuje in uporabi umetno inteligenco, za kar pa mora biti cela vas seznanjena in spoštovati predpise etike umetne inteligence.

Ostanimo prizemljeni in se osredotočimo na današnjo računalniško nečutečo umetno inteligenco.

ML/DL je oblika ujemanja računalniških vzorcev. Običajni pristop je, da zbirate podatke o nalogi odločanja. Podatke vnesete v računalniške modele ML/DL. Ti modeli poskušajo najti matematične vzorce. Ko najde takšne vzorce, če jih najde, bo sistem AI uporabil te vzorce, ko bo naletel na nove podatke. Ob predstavitvi novih podatkov se za sprejemanje trenutne odločitve uporabijo vzorci, ki temeljijo na »starih« ali zgodovinskih podatkih.

Mislim, da lahko uganete, kam to vodi. Če so ljudje, ki so sprejemali vzorčne odločitve, vključevali nenaravne pristranskosti, je verjetno, da podatki to odražajo na subtilne, a pomembne načine. Računalniško ujemanje vzorcev strojnega učenja ali globokega učenja bo preprosto poskušalo ustrezno matematično posnemati podatke. Sam po sebi ni videti zdrave pameti ali drugih čutečih vidikov modeliranja, izdelanega z umetno inteligenco.

Poleg tega se tudi razvijalci umetne inteligence morda ne zavedajo, kaj se dogaja. Skrivna matematika v ML/DL bi lahko otežila odkrivanje zdaj skritih pristranskosti. Upravičeno bi upali in pričakovali, da bodo razvijalci umetne inteligence testirali potencialno zakopane pristranskosti, čeprav je to bolj zapleteno, kot se morda zdi. Obstaja velika možnost, da bodo tudi pri razmeroma obsežnem testiranju v modelih ujemanja vzorcev ML/DL še vedno pristranskosti.

Lahko bi nekoliko uporabili slavni ali zloglasni pregovor smeti-v smeti-ven. Stvar je v tem, da je to bolj podobno pristranskosti, ki se zahrbtno vnesejo kot pristranskosti, potopljene v AI. Algoritem odločanja (ADM) AI aksiomatično postane obremenjen z neenakostmi.

Slabo.

Menim, da sem zdaj pripravil temelje za zadostno razpravo o vlogi umetne inteligence kot sredstva za spodbujanje psihološke inokulacije v zvezi z obravnavo dezinformacij in dezinformacij.

Vživeti se v misli ljudi

Začnimo z osnovami ali osnovami, na katerih temeljijo dezinformacije in dezinformacije.

Na splošno se dezinformacije nanašajo na napačne ali zavajajoče informacije.

Dezinformacije so približno enake, čeprav jih sestavlja dodaten element namen. Običajno si informacije razlagamo kot dezinformacije, ko so informacije namenjen dezinformirati.

Lahko vam povem, da je trenutno ura 10 zvečer, kar je recimo napačno, ker je ura res polnoč. Če bi vam povedal 10. uro kot slutnjo in ne bi hotel biti zavajajoč, bi običajno rekli, da sem vas napačno informiral. Posredoval sem napačne informacije. Mogoče sem bil len ali pa sem res verjel, da je ura 10. Po drugi strani, če bi omenil 10. uro, ker sem vas namenoma hotel zavajati, da je ura 10. in da sem vedel, da je ura dejansko polnoč, bi to lahko rekli za obliko dezinformacije. .

Eden pomembnih vidikov informacij na splošno je, da jih običajno lahko širimo naokrog in tako lahko informacije postanejo nekoliko razširjene. Informacije lahko resnično tečejo kot voda v širšem smislu.

Povem vam, da je ura 10 zvečer. Zdaj imate to posebno informacijo. Morda boste glasno zavpili skupini ljudi v bližini, da je ura 10 zvečer. Zdaj imajo tudi iste podatke. Morda nekateri od teh ljudi primejo svoje mobilne telefone in pokličejo druge ljudi, da jim povejo, da je ura 10. Skratka, informacije je mogoče širiti ali deliti in včasih tako hitro, v drugih primerih pa počasi.

V nekem smislu bi lahko trdili, da lahko informacije postanejo virusne.

Obstaja skovana beseda ali terminologija, ki je morda še niste videli ali uporabili in pomaga pri opisovanju tega pojava, ko informacije postajajo virusne, beseda je infodemski. Ta beseda je kombinacija informacij in epidemije. Na splošno je infodemija povezana z okoliščinami, ki vključujejo širjenje dezinformacij ali dezinformacij. Zamisel je, da lahko napačne ali zavajajoče informacije nezaželeno postanejo virusne, podobno kot nezaželeno širjenje bolezni ali bolezni.

V primeru, ko je bila ura 10 zvečer, je bilo to navidezno dejstvo informacija, ki se je razširila na bližnjo skupino ljudi. Oni pa so to dejstvo razširili na druge. Če je bila 10. ura lažna, potem se je ta konkreten primer dezinformacije ali dezinformacije razširil na mnoge druge. Morda ne vedo, da so informacije dezinformacije ali morda dezinformacije.

Verjamem, da se vse te definicije in osnove zdijo smiselne in da se zaenkrat strinjate.

Super, gremo naprej.

Nekoliko prikrito sem vas popeljal v nekaj, kar vzbuja veliko mero fascinacije in tudi tesnobe. Bistvo je, da verjetno obstajajo razumno utemeljene vzporednice med tem, kaj bolezni povzročijo virusno, in tem, kaj dezinformacije ali dezinformacije povzročijo virusno.

Vsi se ne strinjajo s temi vzporednicami. Kljub temu so zanimivi in ​​vredni obravnave.

Dovolite mi, da izpopolnim.

Vidite, lahko poskusimo uporabiti priročno analogijo sklicevanja na bolezni, ki jih prenaša človek, in bolezni, ki se širijo, tako da primerjamo podobno možnost s širjenjem dezinformacij in dezinformacij. Da bi poskušali zaustaviti širjenje bolezni, si lahko prizadevamo za zgodnje odkrivanje in skušamo omejiti nastajajoči vir bolezni, ki kaže na potencialno širjenje bolezni. Drug pristop k reševanju bolezni, ki se širi, bi bil, da se zaščitite pred okužbo s preudarno uporabo maske ali zaščitne opreme. Tretji pristop bi lahko zajemal cepljenja, da bi poskušali zgraditi svojo imunost, povezano z boleznijo.

Zdaj smo sklenili krog, saj lahko iste pristope k spopadanju z boleznimi eksplicitno primerjamo z obravnavanjem dezinformacij in dezinformacij. Prej sem omenil, da potekajo podobna prizadevanja za uporabo umetne inteligence za namene obvladovanja dezinformacij in napačnih informacij, zlasti (kot je bilo omenjeno prej):

  • Stop At The Get-Go: Umetno inteligenco je mogoče uporabiti za odkrivanje in poskus izločanja dezinformacij in dezinformacij, preden pridejo na dan
  • Filtriraj pred ogledom: AI se lahko uporablja za filtriranje dezinformacij in napačnih informacij, tako da vam ni treba skrbeti, da jih boste videli
  • Pripravite se, da boste imuni: Umetno inteligenco je mogoče uporabiti za krepitev vaše pripravljenosti in sposobnosti spopadanja z dezinformacijami in dezinformacijami (znano nekoliko uradno kot zagotavljanje neke vrste psihološke cepitve)
  • Ostalo

Tretji vidik bo tukaj najbolj zanimiv.

Tukaj je dogovor.

Vemo, da bolezni običajno prizadenejo Človeško telo. Z analogijo, kako nastanejo dezinformacije in dezinformacije, lahko sklepamo, da napačne informacije udarijo po človeški um. Da, domnevno lahko pridete v stik z dezinformacijami ali dezinformacijami, ki tečejo v vaš um. Dezinformacije ali napačne informacije lahko pokvarijo ali zastrupijo vaš način razmišljanja.

Človeško telo se lahko s cepljenjem poskusi pripraviti na stik z boleznimi. Postavlja se veliko vprašanje, ali lahko storimo enako za človeški um. Ali je mogoče poskusiti in cepiti um, tako da ste, ko na pamet pride dezinformacija ali dezinformacija, pripravljeni nanjo in ste bili ustrezno cepljeni?

Področje študija, znano kot psihološko cepljenje trdi, da je um dejansko mogoče cepiti v smislu, da je pripravljen za obvladovanje dezinformacij ali dezinformacij.

Razmislite o tem opisu v nedavni raziskovalni študiji o psihološki inokulaciji in kaj je včasih označeno kot početje prebunking:

  • »Razkritje dezinformacij je problematično tudi zato, ker popravljanje dezinformacij ne izniči vedno v celoti njihovih učinkov, pojav, znan kot učinek nenehnega vpliva. V skladu s tem je v nasprotju z razkritjem predhodno razkritje postalo pomembno kot sredstvo za preventivno ustvarjanje odpornosti proti pričakovani izpostavljenosti dezinformacijam. Ta pristop običajno temelji na teoriji inokulacije. Teorija cepljenja sledi analogiji medicinskega cepljenja in trdi, da je mogoče zgraditi psihološko odpornost proti neželenim poskusom prepričevanja, podobno kot medicinska cepljenja zgradijo fiziološko odpornost proti patogenom" (Znanost Predplačila, 24. avgust 2022, »Psihološka inokulacija izboljšuje odpornost proti napačnim informacijam na družbenih medijih« soavtorji Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje in Stephan Lewandowsky).

Če se vrnem k mojemu primeru o času, ki je bil 10. ura zvečer, predpostavimo, da sem vam prej povedal, da včasih trditveni čas ni dejanski čas. Odslej imate obliko cepljenja, da bodite previdni glede zahtevanih časov. Ta inokulacija vas je pripravila na stik z zatrjevanimi časi, ki so dezinformacije ali dezinformacije.

Če bi vas že pred nekaj leti opozoril, da trditveni časi niso dejanski časi, obstaja možnost, da ne boste pomislili na to davno opozorilo. Tako je prejšnje cepljenje (naj rečemo) odpadlo. Moje cepljenje za vas bo morda treba okrepiti.

Obstaja tudi možnost, da cepivo ni bilo dovolj specifično, da bi ga lahko uporabili, ko je to potrebno. Če bi vas pred leti opozoril na zahtevane čase v primerjavi z dejanskimi časi, bi bilo to morda preširoko. Cepljenje morda ne bo delovalo v določenem primeru, ko vam bodo povedali, da je ura 10. V tem smislu bi morda moral biti moj nasvet, da bi morali biti previdni, ko se uporablja zahtevani čas 10. ure. Seveda so cepljenja v primeru bolezni nekoliko enaka, včasih so zelo specifična za znane bolezni, v drugih primerih pa širok spekter.

Pogosto citirana raziskovalna študija o psihološki inokulaciji, ki jo je leta 1961 izvedel William McGuire z univerze Columbia, na splošno velja za klasiko na tem področju študija. Morda vas bodo zanimale te ključne točke, ki jih je izpostavil v tistem času:

  • "Takšna splošna imunizacija bi lahko izhajala iz enega od dveh mehanizmov. Predhodna izpostavljenost lahko šokira osebo, da spozna, da so »resnice«, ki jih je vedno sprejemal, res ranljive, kar jo spodbudi, da razvije obrambo svojega prepričanja, zaradi česar je bolj odporna na močne protiargumente, ko pridejo. Druga možnost je, da zavrnitve, ki so vključene v predizpostavitev, povzročijo, da so vsi naknadno predstavljeni protiargumenti proti prepričanju videti manj impresivni« (William McGuire, »Resistance to Persuasion Confered By Active And Passive Prior Refutation of the Same And Alternative Counterarguments«, Journal of Abnormal and Socialna psihologija, 1961).

Se vam zdi ta analogija cepljenja in imunizacije uporabna in primerna primerjava s področjem dezinformacij in dezinformacij?

Nekateri da, nekateri ne.

Za namene te razprave sprejmite, da je predpostavka razumna in primerna.

Kako naj poskušamo cepiti ali imunizirati misli ljudi?

Lahko bi prepričali ljudi, da berejo knjige, ki bi jim lahko razsvetlile um. Lahko jim povemo o tem ali pa jim damo, da gledajo video posnetke ali poslušajo zvočne kasete. itd.

In morda bomo uporabili AI, da naredimo isto.

Sistem umetne inteligence bi lahko bil zasnovan kot vaš inokulator. Kadarkoli začnete uporabljati splet, na primer brskate po internetu, vas lahko aplikacija, ki temelji na AI, pripravi na vaše spletno potovanje. AI vas lahko nahrani z majhno količino dezinformacij, ki so označene kot take, kar vam omogoča, da spoznate, da boste videli nekaj, kar je namenoma lažno.

Po izpostavljenosti tem dezinformacijam, ki jih hrani umetna inteligenca, se vaš um zdaj pripravlja na spopadanje z dezinformacijami ali dezinformacijami, ki jih lahko srečate v naravi na internetu. Vaš um je bil pripravljen. Voila, na internetu vidite blog, ki ponuja trditve, da so tuja bitja z Marsa že tukaj na zemlji in se skrivajo na očeh, vendar to navidezno dezinformacijo ali dezinformacijo vaš um zlahka zavrne zaradi predhodne inokulacije (no, potem pa, morda je res in so res tukaj!).

Kakorkoli že, upam, da ste zdaj sposobni razločiti, kako to, da bi umetna inteligenca lahko pomagala pri cepljenju ali imunizaciji ljudi glede na dezinformacije ali dezinformacije.

Oblikujejo se različne aplikacije AI, ki bodo delovale kot inokulatorji dezinformacij ali napačnih informacij. Umetna inteligenca si lahko prizadeva zagotoviti cepljenje, ki je široko in zagotavlja splošen videz imunizacije. AI bi lahko razvili tudi za bolj specifične oblike cepljenja. Poleg tega lahko AI deluje na prilagojeni osnovi, ki je prilagojena vašim posebnim potrebam ali interesom. Napredna umetna inteligenca v tem prostoru bo prav tako poskušala določiti vašo stopnjo tolerance, stopnjo mentalne absorpcije, sposobnost zadrževanja in druge dejavnike pri sestavljanju in predstavitvi tako imenovanih posnetkov imunizacije.

Zdi se zelo priročno.

AI kot igralec nevarnih miselnih iger

Umetna inteligenca, uporabljena na ta način, bi se na prvi pogled zdela zelo priročna (hej, to sem omenil ravno pred sekundo).

Obstaja vrsta možnih slabosti in težav, ki so zaskrbljujoče in morda grozljive.

V svojih kolumnah pogosto razpravljam o zmožnostih umetne inteligence z dvojno rabo, glej npr povezava tukaj. AI lahko bistveno prispeva k človeštvu. Žal, AI je obremenjen tudi s številnimi nevarnostmi in nesrečnimi pastmi.

V primeru umetne inteligence kot inkuktorja razmislimo o teh demonstracijskih vprašanjih, povezanih z etiko umetne inteligence:

  • Neželeni učinki pri ljudeh
  • Neodzivne reakcije pri ljudeh
  • Napačno ciljanje AI
  • Premajhno ciljanje AI
  • Kibernetska kršitev AI
  • Ostalo

Te pomisleke bomo na kratko raziskali.

Neželeni učinki pri ljudeh

Predpostavimo, da ima človek, ki prejme tovrstno cepljenje na osnovi umetne inteligence, neželeno reakcijo ali povzroči neželen učinek.

Oseba si lahko napačno razlaga cepljenje in nenadoma postane nedovzetna za vse informacije, ki jih prejme. Blokirajo vse informacije. Umetna inteligenca jih je nekako spodbudila, da so otroka vrgli ven s kopalno vodo (star pregovor, morda vreden upokojitve). Namesto da bi se le poskušal spopasti z dezinformacijami in napačnimi informacijami, se je oseba odzvala tako, da se je odločila, da so vse informacije vedno napačne.

Mislim, da ne želimo, da bi ljudje tako pretiravali.

Obstaja veliko neželenih učinkov, ki bi jih lahko spodbudila umetna inteligenca. To je deloma posledica tega, kako je umetna inteligenca poskušala izvesti inokulacijo, vendar moramo tudi del težave položiti na noge človeka, ki je prejel cepljenje. Morda so se odzvali divje ali nenavadno, da drugi, ki so prejeli enako cepivo z umetno inteligenco, tega niso storili.

Ponovno lahko to primerjate z analogijo cepljenj proti boleznim.

Skratka, pomembno bo, da se takšna prizadevanja umetne inteligence izvajajo na odgovoren način, ki si prizadeva zmanjšati škodljive učinke. Obstajati mora tudi nadaljnji vidik AI, da se poskusi ugotoviti, ali je prišlo do neželene reakcije. Če pride do odkritega neželenega učinka, je treba umetno inteligenco oblikovati tako, da bo osebi poskušal pomagati pri njenem neželenem odzivu in skušal premagati ali omiliti odziv.

Neodzivne reakcije ljudi

Druga možnost je, da cepljenje z AI ne vpliva na prejemnika.

Oseba dobi cepljenje na osnovi umetne inteligence, povezano z dezinformacijami ali dezinformacijami. Medtem ko večina ljudi "zboli" in se cepijo, se zagotovo najdejo ljudje, ki se sploh ne bodo odzvali. Iz cepljenja se ne naučijo ničesar. Ne odzivajo se na poskus umetne inteligence, da bi jih imuniziral proti vsem ali določenim vrstam dezinformacij ali dezinformacij.

Še enkrat, to je primerljivo s cepljenjem proti boleznim.

Umetno inteligenco bi bilo treba oblikovati tako, da bi se spopadla s takimi okoliščinami.

Napačno ciljanje AI

Predstavljajte si, da umetna inteligenca upa, da bo ljudi imunizirala glede določene teme, za katero bomo rekli, da je tema X, vendar se izkaže, da je namesto tega obravnavana tema Y. AI napačno cilja.

To je dvojen problem. Prvič, tema X ni bila zajeta kot domnevni in pričakovani namen inokulatorja AI. Drugič, tema Y je zajeta, vendar morda nismo želeli, da bi bili ljudje cepljeni proti tej temi.

Ups.

Vprašanj je ogromno. Ali bi lahko preprečili, da bi se to zgodilo? Če se zgodi, ali lahko razveljavimo temo imunizacije Y? Ali lahko poskušamo pokriti temo X inokulacija ali pa bo oseba manj dovzetna ali nedovzetna zaradi prvotnega napačnega ciljanja s strani umetne inteligence?

Pojavlja se veliko problematičnih pomislekov.

Premajhno ciljanje AI

AI zagotavlja cepivo na temo Z. Zdi se, da imajo ljudje, ki prejmejo cepivo, minimalno ali skoraj zanemarljivo reakcijo. Cepljenje ni bilo dovolj, da bi se uveljavilo.

Morda vas bo zamikalo, da bi na hitro trdili, da je to enostavno rešljivo. Vse kar morate storiti je, da ponovite cepljenje. Mogoče ja morda ne.

Cepljenje z umetno inteligenco je lahko tako omejene vrednosti, da je rezultat še vedno obroben rezultat, ne glede na to, ali ga ljudje izkusijo stokrat. Morda boste morali cepljenje okrepiti, namesto da ga preprosto ponovite.

Medtem si predstavljajte, da se poskusi povečati cepljenje z umetno inteligenco, vendar gre to čez mejo. Okrepljena različica povzroča hiperreakcije. Joj, iz slabega smo prišli na slabše.

Kibernetska zloraba umetne inteligence

Predstavljajte si, da se umetna inteligenca v veliki meri uporablja za pomoč ljudem pri cepljenju pred dezinformacijami in dezinformacijami.

Ljudje se uveljavijo na splošno. Vedo in pričakujejo, da jim bo umetna inteligenca predstavila delčke, ki jim bodo odprli oči glede tega, kar je znano kot dezinformacije in dezinformacije.

Zdi se, da je vse lepo in prav.

Zlobnež lahko nekako izvede kibernetski vdor v AI. V umetno inteligenco prikrito vsilijo nekaj želenih dezinformacij, za katere želijo, da ljudje mislijo, da niso dezinformacije. AI je urejen tako, da se dejanske dezinformacije zdijo resnične. Prav tako se resnične informacije prikazujejo kot dezinformacije.

Ljudje so popolnoma snookerjeni. AI jih dezinformira. Poleg tega, ker so postali odvisni od umetne inteligence in zaradi zaupanja, da umetna inteligenca dela pravo stvar, naletijo na trnek, vrvico in grezilo za to zlorabo umetne inteligence. Brez oklevanja.

Glede na to, kako hitro se lahko dezinformacije širijo naprej, bi lahko zlobnež užival, da je obstoj tovrstne umetne inteligence njihov najlažji in najhitrejši način, da svoje zahrbtne laži obkrožijo po svetu. Ironično je seveda, da je izkoristil inokulator AI za dejansko širjenje bolezni.

zaključek

Ali naj se AI igra z nami miselne igre?

Ali je lahko umetna inteligenca za dezinformacije in cepljenje dezinformacij grozeč trojanski konj?

Zaskrbljenost zaradi takšne nočne more lahko utemeljeno utemeljite.

Drugi se posmehujejo taki možnosti. Ljudje so dovolj pametni, da vedo, kdaj jih umetna inteligenca poskuša pretentati. Ljudje ne bodo nasedli takšnemu driblanju. Takšna umetna inteligenca bi se dala zavesti samo idiotom. To so običajne replike in protiargumenti.

Ker ne želim videti nič manj kot popolnoma občudoval ljudi in človeško naravo, bi samo rekel, da obstaja dovolj znakov, da bi ljudje lahko padli na AI, ki jih zavaja.

Obstaja še večja težava, ki morda preži na vse to.

Kdo izdeluje umetno inteligenco in kako umetna inteligenca algoritemsko odloča, kaj se šteje za dezinformacije in dezinformacije?

Danes se v svetu na splošno odvija cel boj o tem, kaj so dezinformacije in dezinformacije. Nekateri trdijo, da so dejstva dejstva, zato nikoli ne more biti nobene zmede glede tega, kaj so pravilne in nepravilne informacije. Čeprav se včasih hudič skriva v podrobnostih, to je res.

Končna pripomba za zdaj. Abraham Lincoln je slavno izjavil: "Lahko preslepiš vse ljudi nekaj časa in nekatere ljudi ves čas, ne moreš pa preslepiti vseh ljudi ves čas."

Ali bo umetna inteligenca, ki se uporablja za pomoč pri cepljenju človeštva pred dezinformacijami in dezinformacijami, bistveno orodje za zagotovitev, da vseh ljudi ne bo mogoče ves čas preslepiti? Ali pa se morda uporablja za preslepitev večjega števila ljudi?

Čas bo povedal.

In to zagotovo ni dezinformacija ali dezinformacija.

Vir: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/