Trenutek Cry Wolf AI Hype ni koristen

Čeprav sem nekdo, ki preučuje scenarije konca človeštva, menim, da sta »strokovno pismo«, ki predlaga 6-mesečni moratorij za umetno inteligenco, ali novejša izjava, da je tveganje za umetno inteligenco na ravni pandemije in jedrskega tveganja, pretirana. Še bolj divje mnenje, da moramo zapreti AI, je neodgovorno. Vsaka skrb mora biti sorazmerna s tveganji, s katerimi se srečujemo. Trenutno nismo v neposredni nevarnosti zaradi umetne inteligence.

Trenutni AI ni sposoben prevzeti družbe. Nimajo čustev in si ne zaslužijo zaščite kot človeška življenja. Niso superinteligentni in v nobenem splošnem pogledu ne presegajo ljudi. Pravzaprav sploh ne razmišljajo. Trenutno, če se napajajo z obilico podatkov, so AI zelo dobri pri posebnih nalogah, kot sta izračun in napovedovanje. To ni zaskrbljujoče, to so funkcije, ki jih imajo ti sistemi že po zasnovi. Obljube umetne inteligence vključujejo reševanje raka, preoblikovanje industrijske proizvodnje, modeliranje prihodnjih scenarijev in obvladovanje okoljskih izzivov. Ob tem pa obstajajo upravičeni razlogi za kritiko sedanjih umetne inteligence zaradi uporabe virov, preglednosti, pristranskosti, kibernetske varnosti in njenega prihodnjega vpliva na zaposlovanje.

Umetne inteligence so računalniško drage, kar pomeni, da so velika potrata redke fosilne energije. To je treba takoj obravnavati. Vendar ne gre za eksistencialno vprašanje, temveč za racionalno rabo virov. Dejstvo, da umetne inteligence, ki se zanašajo na velike in neučinkovite podatkovne modele, postajajo predrage za sledenje in raziskovanje s strani akademskih krogov ali vlade, je resnično vprašanje. Ampak to je takoj popravljivo. Konzorciji elitnih akademskih ustanov ali vlad bi lahko stopili skupaj in delili računalniške vire, kot so to storili za superračunalništvo.

Veliki jezikovni modeli (LLM) so modeli umetne inteligence, ki lahko ustvarijo besedila v naravnem jeziku iz velikih količin podatkov. Ena težava pri tem je, da so ta besedila neposredno izpeljana iz poštenih intelektualnih prispevkov drugih ljudi. Dejansko so ukradeni. Zlasti generativna umetna inteligenca rekombinira tako potrošniške kot organizacijske podatke ter ustvarjalne vsebine in s tem močno krši avtorske pravice. To je resno, a ne eksistencialno, še več, EU, lobisti iz Hollywooda in »velikih pet« knjižnih založnikov so že na tem primeru. Pričakujte, da bo to upočasnilo umetno inteligenco. Pri trenutni hitrosti bo umetni inteligenci zmanjkalo dobrih podatkov za usposabljanje, veliko preden se približa občutljivosti.

Algoritmi, ki se že uporabljajo za izračun naših davkov, izbiranje naših spletnih virov ali zapiranje ljudi v zapor, imajo osupljivo pomanjkanje preglednosti. Vendar to velja že leta in nima nobene zveze z najnovejšim razvojem umetne inteligence. Pristranskost AI je funkcija in ne napaka. Stereotipi so pravzaprav glavni pristop, prek katerega delujejo takšni modeli. Le da je predsodek skrit v neprepustnih plasteh strojnega razmišljanja, ki je izmuzljivo ljudem, strokovnjakom ali ne. Kar bi morali dvomiti, je modrost razvijalcev, ki so razvili takšne sisteme, ne pa zmogljivosti sistema, ki so jih ustvarili, kar je samoumevno. Sistemi bodo redko boljši od modrosti ali namenov tistih, ki jih gradijo ali vodijo.

Podatki o usposabljanju AI odražajo pristranskosti, prisotne v družbi, iz katere so bili ti podatki zbrani. Ponovna uporaba slabih podatkov o usposabljanju je zaskrbljujoča praksa, ki že onesnažuje modele AI. Trenutni pristopi AI preprosto povečajo pristranskost, da hitro pridejo do rezultata. To je res nasprotno od tega, kar si želimo. Kar želimo storiti, je uporaba tehnologije za zaščito pred človeškimi napakami. Skrb zaradi strojne napake je potratna uporaba človeške inteligence.

Kljub metafori o "nevronski mreži" sedanji AI v nobenem primeru ne spominjajo na možgane. Trenutni sistemi umetne inteligence ne morejo razmišljati po analogiji, kot to počnejo ljudje. To je dobro. Morda si dejansko ne želimo takšne uskladitve z umetno inteligenco, za katero se zavzemajo navdušenci in jo poskušajo posnemati. Stroji bi morali biti drugačni od ljudi. Tako lahko povečamo prednosti drug drugega. In kako lahko ohranimo stroje ločene in ločene. Stroji ne bi smeli imeti nobenih interesov za usklajevanje.

AI vse bolj predstavlja pomembno grožnjo kibernetski varnosti kot sredstvo za kriminalce in sovražne države. Vendar je kibernetska varnost zrela panoga z veliko strokovnjaki, ki so dobro opremljeni za obvladovanje izziva. Nobenega razloga ni, da bi umetno inteligenco zaprli zaradi strahov glede kibernetske varnosti.

Prekinitev zaposlovanja zaradi umetne inteligence je že leta problem politike, najprej pri robotih, zdaj pri sistemih umetne inteligence, ki temeljijo na programski opremi. To pomeni, da se bodo vlade pripravljene spopasti s tem. Študija MIT Work of The Future je pokazala, da je zaskrbljenost glede brezposelnosti zaradi robotov pretirana. Ljudje smo vedno našli načine za delo in tako bomo tudi v prihodnosti. Bo umetna inteligenca spremenila proizvodnjo? To se že dogaja, vendar na dokaj nadzorovan način.

Umetna inteligenca občasno trpi zaradi pretiranih obljub o trenutni funkcionalnosti ali prihodnjem obsegu. Prve zime umetne inteligence so se začele v letih 1974–1980, ko je vlada ZDA umaknila financiranje. Drugi je bil med letoma 1987 in 1993, ko so stroški naraščali in AI ni izpolnil svojih visokih obljub.

V pričakovanju novih paradigem bomo v obdobju 2025–2030 verjetno vstopili v tretjo zimo AI. Vsaj v primerjavi z vročim AI poletjem, ki se nam obeta. Razlog je v tem, da bodo veliki jezikovni modeli kljub navdušenju zaradi vseh zgoraj opisanih razlogov kmalu dosegli svojo največjo uporabnost in jih bodo sčasoma morali nadomestiti računalniško bolj elegantni pristopi, ki so preglednejši.

Eden takšnih kandidatov je hiperdimenzionalno računalništvo, ki bi stroje naredilo učinkovitejše sklepanje, ker strojem dajejo semantično razumevanje, sposobnost obdelave pomena in konteksta za informacijami iz resničnega sveta. Trenutno sistemi AI ne razumejo odnosov med besedami in besednimi zvezami, preprosto so dobri v ugibanju. To je premalo. Sčasoma bomo potrebovali utelešeno umetno inteligenco, ker je mišljenje vezano na dojemanje prostora. To zagotovo velja za proizvodnjo, ki je zelo fizična igra. Potrebovali bomo tudi umetno inteligenco, ki bo zmožna funkcij človeškega spomina, kot je določanje prednosti na podlagi v ospredju nekaterih informacij in v ozadju drugih informacij. Pozabljanje je orodje, ki ga ljudje uporabljajo za abstraktno razmišljanje, premikanje od zastarelih organizacijskih praks, sprejemanje odločitev in za bivanje v trenutku in ni le napaka. Tega še noben stroj ne zmore zelo dobro.

V vmesnem času moramo urediti, vendar ne to sekundo. In ko urejamo, je bolje, da to naredimo dobro. Slaba ureditev umetne inteligence bo verjetno poslabšala situacijo. Prebuditi regulatorje na ta izziv je lahko koristno, vendar nisem prepričan, da je sedanja generacija regulatorjev pripravljena na tako obsežne spremembe, ki bi bile potrebne za dobro izvedbo. Vključevalo bi omejitev močnih podjetij (po možnosti vseh družb, ki kotirajo na borzi), omejitev uporabe umetne inteligence pri upravljanju in bi pomenilo ogromne spremembe v načinu, kako trenutno delujejo potrošniški trgi. V bistvu bi morali preoblikovati družbo. Popeljal bi nas v odraščanje nekaj desetletij prej, kot bi si morda želeli. Izziv glede preglednosti, ki obkroža AI, je morda hujši od kontrolnih spremenljivk, za katere se vsi zdijo tako zaskrbljeni, seveda ne, da niso povezane.

Poleg tega ne moremo biti enako zaskrbljeni vsakič, ko je doseženo merilo AI. Varčevati moramo z energijo za resnično velike trenutke kaskadnega tveganja. Prišli bodo in po pravici povedano nismo pripravljeni. Moji predvideni prihodnji scenariji (glejte Scenariji izumrtja za leto 2075) vključujejo ogromne vdore podatkov, zaradi katerih so celotne države več mesecev izključene iz lastnih procesov. Skrbi me tudi umetna inteligenca, ki jim pomagajo kriminalne združbe ali državni akterji. Predvsem pa me skrbijo kombinacije umetne inteligence, nanotehnologije, sintetične biologije in kvantne tehnologije – skoraj nevidne kvazi-organske inteligence neznane zmožnosti, morda le nekaj desetletij stran, ki se bo zgodila ravno takrat, ko bodo svet požrli kaskadni učinki podnebja sprememba.

Trenutni modeli umetne inteligence še ne delujejo dovolj dobro, da bi predstavljali grožnjo človeštvu. Preden jih lahko izklopimo, potrebujemo boljši AI. Poleg tega potrebujemo modrejše razvijalce, bolj občutljive državljane in bolje obveščene oblikovalce politik. Potrebujemo tudi koncept, KAKO regulirati AI. Toda to je mogoče storiti brez upočasnitve. To bo izobraževalno potovanje za vse. Pismo o moratoriju v zvezi z GPT 4 (2023) je hud trenutek, ki je le rahlo podoben kaskadnim tveganjem, s katerimi se človeštvo sooča v prihodnjih desetletjih. Tveganje umetne inteligence na raven tveganja pandemije in jedrskega tveganja leta 2023 je prezgodaj. Bomo prišli tja? Morda. Toda jok volka ima posledice. Srka kisik prihajajočim razpravam o resničnih strahovih.

Vir: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/