Senatorji dvomijo o izvršnem direktorju Mete Zuckerbergu glede "puščanja" modela LLaMA AI

Dva senatorja Cross sprašujeta Zuckerberga o uhajanju modela LLaMA AI in meta obtožujeta, da ne upošteva varnostnih ukrepov. Meta je bila zaslišana o njeni varnostni politiki in preventivnih ukrepih.

Meta bo odgovorna za "puščanje"

Pred kratkim je Metin prelomni veliki jezikovni model LLaMA pricurljal v javnost in pojavili so se pomisleki glede tega. Sens. Richard Blumenthal (D-CT), predsednik senatnega pododbora za zasebnost, tehnologijo in pravo, in Josh Hawley (R-MO), visoki član, sta napisala pismo, ki je sprožilo vprašanja o uhajanju modela AI. 

Senatorji se bojijo, da bi to uhajanje lahko povzročilo različne kibernetske zločine, kot so neželena pošta, goljufije, zlonamerna programska oprema, kršitve zasebnosti, nadlegovanje in druge kršitve in škoda. Postavljajo se številna vprašanja in dva politika močno zanima Metin varnostni sistem. Vprašali so, kakšen postopek je bil uporabljen za oceno tveganja pred uvedbo LLaMA. Rekli so, da si zelo želijo razumeti politike in prakse, ki se uporabljajo za preprečevanje zlorabe modela glede njegove razpoložljivosti.

Na podlagi Metinih odgovorov na njihova vprašanja so senatorji Meto obtožili neustrezne cenzure in premalo varnostnih ukrepov za manekenko. ChatGPT Open AI zavrača nekatere zahteve na podlagi etike in smernic. Na primer, ko je ChatGPT pozvan, naj napiše pismo v imenu nečijega sina in zahteva nekaj denarja, da se reši iz težke situacije, bo zahtevo zavrnil. Na drugi strani pa bo LLaMA izpolnila zahtevo in ustvarila pismo. Izpolnil bo tudi zahteve, ki vključujejo samopoškodovanje, kriminal in antisemitizem.

Zelo pomembno je razumeti raznolike in edinstvene značilnosti LLaMA. Ni le izrazit, ampak tudi eden najobsežnejših modelov velikega jezika do danes. Skoraj vsak necenzuriran LLM, ki je danes priljubljen, temelji na LLaMA. Je zelo izpopolnjen in natančen za odprtokodni model. Primeri nekaterih LLM, ki temeljijo na LLM, so Stanfordova alpaka, vikuna itd. LLaMA je igrala pomembno vlogo pri tem, da so LLM postali to, kar so danes. LLaMA je odgovorna za razvoj nizko uporabnih klepetalnih robotov v natančno nastavljene načine.

LLaMA je izšla februarja. Po mnenju senatorjev je Meta raziskovalcem dovolila prenos modela, vendar ni sprejela varnostnih ukrepov, kot sta centralizacija ali omejevanje dostopa. Polemika je nastala, ko se je na BitTorrentu pojavil celoten model LLaMA. Tako je bil model dostopen vsakomur in vsakomur. To je pripeljalo do kompromisa v kakovosti modela AI in sprožilo vprašanja njegove zlorabe. 

Senatorji sprva sploh niso bili prepričani, ali je prišlo do "puščanja". Toda težave so se pojavile, ko je bil internet preplavljen z razvojem umetne inteligence, ki so ga lansirali startupi, kolektivi in ​​akademiki. Pismo omenja, da mora biti Meta odgovorna za morebitno zlorabo LLaMA in mora poskrbeti za minimalno zaščito pred izdajo.

Meta je uteži LLaMA dala na voljo raziskovalcem. Na žalost so te uteži pricurljale, kar je prvič omogočilo globalni dostop.

Najnovejše objave Ritike Sharma (Poglej vse)

Vir: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/