Microsoft izboljša varnost AI Chatbot za preprečitev prevarantov

Microsoft Corp je v Azure AI Studio dodal številne varnostne funkcije, ki naj bi sčasoma še naprej zmanjševale verjetnost, da bi njegovi uporabniki konfigurirali modele AI v način, ki bi ti delovali nenormalno ali neprimerno. Multinacionalno tehnološko podjetje s sedežem v Redmondu, Washington, je izboljšave orisal v objavi na spletnem dnevniku, pri čemer je poudaril zagotavljanje celovitosti interakcij AI in spodbujanje zaupanja v bazo uporabnikov.

Prompt ščiti in več 

Med pomembnejšimi dosežki je ustvarjanje »prompt shields«, tehnologije, ki je zasnovana za iskanje in ubijanje takojšnjih injekcij med pogovorom s klepetalnimi roboti AI. To so tako imenovani jailbreaks in so v bistvu vnosi uporabnikov, ki se namerno oblikujejo na tak način, da izzovejo neželen odziv modelov AI.

Na primer, Microsoft igra svojo vlogo posredno s hitrimi injekcijami, kjer je možna izvedba zlobnih ukazov, takšen scenarij pa lahko vodi do resnih varnostnih posledic, kot sta kraja podatkov in ugrabitev sistema. Mehanizmi so ključni za odkrivanje in odzivanje na te enkratne grožnje v realnem času, pravi Sarah Bird, Microsoftova glavna produktna direktorica za odgovorno umetno inteligenco.

Microsoft dodaja, da bodo kmalu na uporabnikovem zaslonu prikazana opozorila, ki bodo opozarjala, kdaj bo model verjetno izražal napačne ali zavajajoče informacije, kar bo zagotovilo večjo prijaznost do uporabnika in zaupanje.

Gradimo zaupanje v orodja AI 

Microsoftova prizadevanja so del večje pobude, katere namen je ljudem dati zaupanje v vse bolj priljubljeno generativno umetno inteligenco, ki se v veliki meri uporablja v storitvah, namenjenih posameznim potrošnikom in poslovnim strankam. Microsoft je šel skozi z glavnikom s finimi zobmi, potem ko je povzročil primere, pri čemer so imeli uporabniki možnost preigrati klepetalnega robota Copilot, da je ustvaril bizarne ali škodljive rezultate. To bo v podporo rezultatu, ki kaže potrebo po močni obrambi pred omenjenimi manipulativnimi taktikami, ki se bodo verjetno povečale s tehnologijami AI in priljubljenim znanjem. Predvidevanje in nato blažitev je v prepoznavanju vzorcev napada, na primer, ko napadalec ponavlja vprašanja ali pozive pri igranju vlog.

Kot največji vlagatelj in strateški partner OpenAI Microsoft premika meje, kako vključiti in ustvariti odgovorne, varne generativne tehnologije umetne inteligence. Oba sta zavezana odgovornemu uvajanju in temeljnim modelom Generative AI za varnostne ukrepe. Toda Bird je priznal, da ti veliki jezikovni modeli niso odporni na manipulacije, čeprav bodo začeli veljati za osnovo za večino prihodnjih inovacij AI.

Za gradnjo na teh temeljih bo potrebno veliko več kot le zanašanje na same modele; potreboval bi celovit pristop k varnosti in zaščiti AI.

Microsoft je pred kratkim napovedal krepitev varnostnih ukrepov za svoj Azure AI Studio, da prikaže in zagotovi proaktivne korake, ki se izvajajo za zaščito spreminjajočega se okolja groženj z umetno inteligenco.

Prizadeva si preprečiti zlorabe umetne inteligence in ohraniti celovitost in zanesljivost interakcije umetne inteligence z vključitvijo pravočasnih zaslonov in opozoril.

Zaradi nenehnega razvoja tehnologije umetne inteligence in njenega sprejemanja v številnih delih vsakdanjega življenja bo skrajni čas, da Microsoft in preostala skupnost umetne inteligence ohranita zelo pozorno varnostno držo.

Vir: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/