Näin OpenAI aikoo puhdistaa ChatGPT:n vääristä tiedoista

OpenAI ilmoitti 31. toukokuuta pyrkivänsä parantamaan ChatGPT:n matemaattisia ongelmanratkaisukykyjä, joilla pyritään vähentämään tekoälyn (AI) hallusinaatioita. OpenAI korosti hallusinaatioiden lieventämistä ratkaisevana askeleena kohti yhdenmukaisen AGI:n kehittämistä.

Maaliskuussa ChatGPT:n uusimman version, GPT-4:n, käyttöönotto lisäsi tekoälyä valtavirtaan. Generatiiviset AI-chatbotit ovat kuitenkin jo pitkään taistelleet tosiasioiden tarkkuuden kanssa ja tuottaneet toisinaan vääriä tietoja, joita kutsutaan yleisesti "hallusinaatioiksi". Pyrkimykset vähentää näitä tekoälyharhoja julkistettiin heidän verkkosivuillaan.

AI-hallusinaatiot viittaavat tapauksiin, joissa tekoälyjärjestelmät tuottavat tulosteita, jotka ovat tosiasiallisesti virheellisiä, harhaanjohtavia tai joita ei tue todellisen maailman data. Nämä hallusinaatiot voivat ilmetä eri muodoissa, kuten väärän tiedon tuottaminen, olemattomien tapahtumien tai ihmisten keksiminen tai epätarkkojen tietojen antaminen tietyistä aiheista.

OpenAI teki tutkimusta selvittääkseen kahdentyyppisen palautteen tehokkuutta – "tulosten valvonnan" ja "prosessin valvonnan". Tulosohjauksessa palautetaan lopputulokseen perustuvaa palautetta, kun taas prosessivalvonta antaa panoksen jokaiseen ajatusketjun vaiheeseen. OpenAI arvioi näitä malleja matemaattisten tehtävien avulla, generoi useita ratkaisuja ja valitsi korkeimmalle sijoittuneen ratkaisun kunkin palautemallin mukaan.

Perusteellisen analyysin jälkeen tutkimusryhmä havaitsi, että prosessin valvonta tuotti ylivoimaisen suorituskyvyn, koska se kannusti mallia noudattamaan ihmisen hyväksymää prosessia. Sitä vastoin tulosten valvonta osoittautui haastavammaksi valvoa johdonmukaisesti.

OpenAI ymmärsi, että prosessien valvonnan vaikutukset ulottuvat matematiikkaa pidemmälle, ja lisätutkimuksia tarvitaan sen vaikutusten ymmärtämiseksi eri aloilla. Se ilmaisi mahdollisuuden, että jos havaitut tulokset pitävät paikkansa laajemmissa yhteyksissä, prosessien valvonta voisi tarjota suotuisan suorituskyvyn ja yhdenmukaisuuden yhdistelmän tulosvalvontaan verrattuna. Tutkimuksen helpottamiseksi yhtiö julkaisi julkisesti täydellisen prosessinvalvonnan tietojoukon ja kutsui tutkimaan ja tutkimaan tätä aluetta.

Related: Tekoälykysyntä tekee Nvidian hetkeksi 1T dollarin klubiksi

Vaikka OpenAI ei antanut nimenomaisia ​​tapauksia, jotka olisivat saaneet heidän tutkimaan hallusinaatioita, kaksi viimeaikaista tapahtumaa osoitti ongelman tosielämän skenaarioissa.

Äskettäisessä tapauksessa asianajaja Steven A. Schwartz Mata v. Avianca Airlines -tapauksessa myönsi luottavansa chatbotiin tutkimusresurssina. ChatGPT:n toimittamat tiedot osoittautuivat kuitenkin täysin tekaistuiksi, mikä korosti käsillä olevaa ongelmaa.

OpenAI:n ChatGPT ei ole ainoa esimerkki tekoälyjärjestelmistä, jotka kohtaavat hallusinaatioita. Microsoftin tekoäly tutki maaliskuussa chatbot-teknologiansa esittelyn aikana tulosraportteja ja loi epätarkkoja lukuja yrityksille, kuten Gap ja Lululemon.

Magazine: 25 XNUMX kauppiasta lyö vetoa ChatGPT:n osakevalinnoista, tekoäly imee nopanheittoja ja paljon muuta

Lähde: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information