3 razlogi, zakaj bo vaša organizacija potrebovala zunanje ocenjevalce algoritmov

Avtor: Satta Sarmah-Hightower

Vodje podjetij iz umetne inteligence (AI) iztisnejo vso vrednost, ki jo lahko. Študija KPMG iz leta 2021 ugotavlja večina vodij podjetij v vladi, industrijski proizvodnji, finančnih storitvah, maloprodaji, znanosti o življenju in zdravstvenem varstvu pravi, da umetna inteligenca v njihovih organizacijah vsaj zmerno deluje. Študija tudi ugotavlja, da polovica vprašanih pravi, da je njihova organizacija pospešila uvedbo umetne inteligence kot odgovor na pandemijo Covid-19. V organizacijah, kjer je bila umetna inteligenca sprejeta, vsaj polovica pravi, da je tehnologija presegla pričakovanja.

Algoritmi umetne inteligence so vse bolj odgovorni za različne današnje interakcije in inovacije – od prilagojenih priporočila za izdelke in storitve za stranke izkušnje z bankami odločitve o posojanju in celo odziv policije.

Toda kljub vsem prednostim, ki jih ponujajo, algoritmi umetne inteligence prinašajo velika tveganja, če niso učinkovito nadzorovani in ovrednoteni glede odpornosti, pravičnosti, razložljivosti in integritete. Za pomoč vodjem podjetij pri spremljanju in ocenjevanju umetne inteligence zgoraj omenjena študija kaže, da a vedno več vodij podjetij želi, da bi vlada uredila AI, da bi organizacijam omogočila vlaganje v pravo tehnologijo in poslovne procese. Za potrebno podporo in nadzor je pametno razmisliti o zunanjih ocenah, ki jih ponuja ponudnik storitev z izkušnjami pri zagotavljanju takih storitev. Tukaj so trije razlogi, zakaj.

1. Algoritmi so "črne skrinjice"

Algoritmi umetne inteligence – ki se učijo iz podatkov za reševanje problemov in optimizacijo nalog – delajo sisteme pametnejše, kar jim omogoča zbiranje in ustvarjanje vpogledov veliko hitreje, kot bi to lahko storili ljudje.

Vendar nekatere zainteresirane strani menijo, da so ti algoritmi »črne skrinjice«, pojasnjuje Drew Rosen, generalni direktor revizije pri KPMG, vodilnem podjetju za strokovne storitve. Natančneje, nekatere zainteresirane strani morda ne razumejo, kako je algoritem prišel do določene odločitve, in zato morda niso prepričani v poštenost ali točnost te odločitve.

"Rezultati, pridobljeni iz algoritma, so lahko nagnjeni k pristranskosti in napačni interpretaciji rezultatov," pravi Rosen. "To lahko vodi tudi do nekaterih tveganj za subjekt, saj izkorišča te rezultate in [jih] deli z javnostjo in svojimi deležniki."

Algoritem, ki na primer uporablja napačne podatke, je v najboljšem primeru neučinkovit, v najslabšem pa škodljiv. Kako bi to lahko izgledalo v praksi? Razmislite o klepetalnem robotu na osnovi umetne inteligence, ki uporabnikom zagotavlja napačne podatke o računu, ali avtomatiziranem prevajalskem orodju, ki netočno prevede besedilo. Oba primera bi lahko povzročila resne napake ali napačne razlage za vladne subjekte ali podjetja, pa tudi za sestavne dele in stranke, ki se zanašajo na odločitve, ki jih sprejmejo ti algoritmi.

Še en dejavnik, ki prispeva k problemu črne skrinjice, je, ko inherentna pristranskost prodre v razvoj modelov umetne inteligence, kar lahko povzroči pristransko odločanje. Posojilodajalci na primer vse pogosteje uporabljajo umetno inteligenco za napovedovanje kreditne sposobnosti potencialnih posojilojemalcev za sprejemanje odločitev o posojilih. Vendar pa lahko nastane tveganje, ko ključni vložki v AI, kot je kreditna ocena potencialnega posojilojemalca, ima stvarno napako, zaradi česar so tem posameznikom zavrnjena posojila.

To poudarja potrebo po zunanjem ocenjevalcu, ki lahko služi kot nepristranski ocenjevalec in zagotovi osredotočeno oceno, ki temelji na sprejetih merilih, ustreznosti in zanesljivosti zgodovinskih podatkov in predpostavk, ki poganjajo algoritem.

2. Zainteresirane strani in regulatorji zahtevajo preglednost

Leta 2022 ni bilo trenutnih zahtev za poročanje za odgovorno umetno inteligenco. Vendar Rosen pravi: »tako kot so upravni organi uvedli ESG [okoljske, socialne in upravljavske] predpise poročilo o določenih meritvah ESG, je samo vprašanje časa, da bomo videli dodatne zahteve glede poročanja predpisov za odgovorno umetno inteligenco.«

Pravzaprav velja od 1. januarja 2023 v New Yorku Lokalni zakon 144 zahteva, da se pred uporabo orodja za samodejno odločanje o zaposlitvi opravi revizija pristranskosti.

In na zvezni ravni, Zakon o nacionalni pobudi za umetno inteligenco iz leta 2020— ki gradi na a 2019 izvršni ukaz— se osredotoča na tehnične standarde in navodila za umetno inteligenco. Poleg tega je Zakon o algoritmični odgovornosti bi lahko zahtevale ocene učinka avtomatiziranih sistemov odločanja in razširjenih procesov kritičnega odločanja. In v tujini, Zakon o umetni inteligenci je bil predlagan in ponuja celovit regulativni okvir s posebnimi cilji glede varnosti, skladnosti, upravljanja in zanesljivosti umetne inteligence.

S temi premiki so organizacije pod mikroskopom upravljanja. Ocenjevalec algoritmov lahko zagotovi takšna poročila, ki obravnavajo regulativne zahteve in povečajo preglednost deležnikov, hkrati pa se izognejo tveganju, da si deležniki napačno razlagajo ali zaveden glede na rezultate ocene.

3. Podjetja imajo koristi od dolgoročnega upravljanja tveganj

Steve Camara, partner v KPMG-jevi praksi zagotavljanja tehnologije, napoveduje, da bodo naložbe v umetno inteligenco še naprej rasle, ko bodo subjekti nadaljevali z avtomatizacijo procesov, razvijali inovacije, ki izboljšujejo uporabniško izkušnjo, in distribucijo razvoja umetne inteligence med poslovnimi funkcijami. Da bi organizacije ostale konkurenčne in dobičkonosne, bodo potrebovale učinkovit nadzor, ki ne bo le odpravljal takojšnjih pomanjkljivosti umetne inteligence, ampak bo tudi zmanjšal morebitna dolgoročna tveganja, povezana s poslovnimi operacijami, ki jih poganja umetna inteligenca.

Tu nastopijo zunanji ocenjevalci kot zaupanja vreden in izkušen vir. Ker organizacije vedno bolj sprejemajo celovitost umetne inteligence kot dejavnika, ki omogoča poslovanje, lahko partnerstvo postane manj ad hoc storitev in bolj dosledno sodelovanje, pojasnjuje Camara.

»Vidimo pot naprej, kjer bo potreben stalen odnos med organizacijami, ki nenehno razvijajo in operacionalizirajo umetno inteligenco, in objektivnim zunanjim ocenjevalcem,« pravi.

Pogled proti temu, kar sledi

V prihodnosti bi lahko organizacije zunanje ocene uporabljale bolj ciklično, ko na primer razvijajo nove modele, sprejemajo nove vire podatkov, integrirajo rešitve ponudnikov tretjih oseb ali krmarijo po novih zahtevah skladnosti.

Ko so predpisani dodatni predpisi in zahteve glede skladnosti, lahko zunanji ocenjevalci zagotovijo storitve za neposredno oceno, kako dobro je organizacija uvedla ali uporabila umetno inteligenco v zvezi s temi zahtevami. Ti ocenjevalci bi bili potem v najboljšem položaju za izmenjavo rezultatov ocenjevanja na jasen in dosleden način.

Da bi izkoristila tehnologijo in se hkrati zaščitila pred njenimi omejitvami, mora organizacija poiskati zunanje ocenjevalce, ki bodo zagotovili poročila, na katera se lahko nato zanese, da dokaže večjo preglednost pri uvajanju algoritmov. Od tam lahko tako organizacija kot deležniki bolje razumejo moč umetne inteligence – in njene omejitve.

Vir: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/