Evo, kako namerava OpenAI očistiti ChatGPT lažnih informacij

OpenAI je 31. maja objavil svoja prizadevanja za izboljšanje zmogljivosti ChatGPT za reševanje matematičnih problemov, s ciljem zmanjšati primere halucinacij umetne inteligence (AI). OpenAI je poudaril ublažitev halucinacij kot ključni korak k razvoju usklajenega AGI.

Marca je uvedba najnovejše različice ChatGPT, GPT-4, dodatno pognala umetno inteligenco v mainstream. Vendar pa se generativni klepetalni roboti z umetno inteligenco že dolgo spopadajo s točnostjo dejstev in občasno ustvarijo lažne informacije, ki jih običajno imenujemo "halucinacije". Prizadevanja za zmanjšanje teh halucinacij umetne inteligence so bila objavljena v objavi na njihovi spletni strani.

Halucinacije umetne inteligence se nanašajo na primere, ko sistemi umetne inteligence ustvarijo rezultate, ki so dejansko napačni, zavajajoči ali niso podprti s podatki iz resničnega sveta. Te halucinacije se lahko kažejo v različnih oblikah, kot je ustvarjanje lažnih informacij, izmišljevanje neobstoječih dogodkov ali ljudi ali posredovanje netočnih podrobnosti o določenih temah.

OpenAI je izvedel raziskavo, da bi preučil učinkovitost dveh vrst povratnih informacij – »nadzor izida« in »nadzor procesa«. Nadzor rezultatov vključuje povratne informacije na podlagi končnega rezultata, medtem ko nadzor procesa zagotavlja vhodne podatke za vsak korak v verigi razmišljanja. OpenAI je ocenil te modele z uporabo matematičnih problemov, ustvaril več rešitev in izbral najvišje uvrščeno rešitev glede na vsak model povratne informacije.

Po temeljiti analizi je raziskovalna skupina ugotovila, da je nadzor procesa prinesel vrhunsko učinkovitost, saj je spodbudil model, da se drži postopka, ki ga je odobril človek. Nasprotno pa se je izkazalo, da je nadzor rezultatov bolj zahteven za dosledno preverjanje.

OpenAI je priznal, da posledice nadzora procesov presegajo matematiko in da je za razumevanje njegovih učinkov na različnih področjih potrebna nadaljnja preiskava. Izrazil je možnost, da če opazovani rezultati držijo v širšem kontekstu, bi lahko supervizija procesov ponudila ugodno kombinacijo uspešnosti in usklajenosti v primerjavi z nadzorom rezultatov. Da bi olajšali raziskave, je podjetje javno objavilo celoten nabor podatkov o nadzoru procesov in povabilo k raziskovanju in študiju na tem področju.

Povezano: Povpraševanje po umetni inteligenci Nvidio za kratek čas katapultira v klub 1T $

Čeprav OpenAI ni zagotovil izrecnih primerov, ki bi spodbudili njihovo preiskavo halucinacij, sta dva nedavna dogodka ponazorila težavo v scenarijih iz resničnega življenja.

V nedavnem incidentu je odvetnik Steven A. Schwartz v zadevi Mata proti Avianca Airlines priznal, da se je kot raziskovalni vir zanašal na chatbot. Vendar se je izkazalo, da so informacije, ki jih je posredoval ChatGPT, v celoti izmišljene in poudarjajo obravnavano težavo.

OpenAI's ChatGPT ni edini primer sistemov umetne inteligence, ki naletijo na halucinacije. Microsoftova umetna inteligenca je med predstavitvijo svoje tehnologije chatbot marca preučila poročila o dobičku in ustvarila netočne številke za podjetja, kot sta Gap in Lululemon.

Revija: 25 trgovcev stavi na delnice ChatGPT, umetna inteligenca je zanič pri metih kock in več

Vir: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information