Outthinking Generatiivinen AI ChatGPT oikaisemaan ärsyttäviä tekoäly-hallusinaatioita, neuvoo tekoälyn etiikkaa ja tekoälylakia

Ajatteletko mitä he ajattelevat?

Jos näin on, olet tietyssä mielessä kietoutunut mielen teoriaksi kutsuttuun ilmiöön. Tavallinen määritelmä mielen teoria on se, että huomaamme usein yrittävämme selvittää, mitä joku muu ajattelee. Melkein varmasti teet niin paljon.

Kuvittele, että keskustelet pomosi kanssa. Kun kuuntelet sanoja, yrität todennäköisesti myös ymmärtää näiden sanojen takana olevat sisäiset ajatukset. Onko pomoni vihainen minulle tai suuttunut jostain muusta, joka ei liity minuun? Ehkä he joutuivat pieneen auton lokasuojaan tänä aamuna. Ehkä heillä on ongelmia kotona. Vai koskeeko kärsimäsi epämiellyttävä tiradi todellakin viimeisimpään työhön liittyvää tekopyhääsi?

Laajennamme tämän ajatustenluku-arvauksen yleensä muihin asioihin kuin ihmisiin.

Olet metsässä. Edessä olevalle aukiolle ilmestyy yhtäkkiä karhu. Todennäköisyys on, että yrität välittömästi laittaa sananlaskun jalkasi vaikuttavan eläimen kenkiin tai ehkä karhun tassuihin. Mitä tuo karhu ajattelee? Pitääkö se minua ystävänä vai vihollisena? Pitäisikö minun yrittää olla tervetullut vai pitäisikö minun alkaa juosta ikään kuin elämäni riippuisi pakoon pääsemisestä (mihin ehkä tuleva olemassaolosi vastaa)?

Uskallan väittää, että voit kokeilla samaa arvausmuotoa leivänpaahtimessa. Laitat leivän leivänpaahtimeen ja painat vipua alas aloittaaksesi paahtoprosessin. Noin minuutin kuluttua näyttää siltä, ​​​​että paahtoleipä ei ole vieläkään paahtunut. Mitä ihmettä tuo leivänpaahdin ajattelee? Onko se päättänyt, ettei se enää suorita juhlallista velvollisuuttaan? Olisiko leivänpaahdin voinut menettää järkensä?

Tietenkin on hieman absurdia yrittää liittää ajatteluprosessit leivänpaahtimeen. Tiedämme, että leivänpaahdin ei ajattele. Ihminen ajattelee. Voimme myös mahdollisesti olla samaa mieltä siitä, että eläimet ajattelevat. Huomaa, että jotkut ihmiset väittävät kiihkeästi, että vain ihmiset kykenevät ajattelemaan, mikä saa kaikki muut eläimet pulaan. Kun eläimet suorittavat jonkinlaisia ​​aivoihin liittyviä laskelmia, miksi sitä koneistusta pitäisi kutsua? Kutsukaa sitä miksi haluatte, skeptikot sanovat, mutta älkääkä kutsuko sitä ajatteluksi. Varaa ajattelu vain ihmisille.

Yksi tärkeä opetus on, että meidän on oltava varovaisia ​​antropomorfoimalla ympärillämme olevia esineitä.

Ajatteluprosessien yhdistämisessä johonkin, jolla ei ole tätä kapasiteettia, on luontainen vaara. Leivänpaahtimesi ei ole ajattelija. On järkevää yrittää selvittää, mitä leivänpaahdin tekee, vaikka ajatteluprosessien määrittäminen mukana oleville mekanismeille on typerää. Parasta, mitä voit tehdä, on ehkä yrittää ajatella leivänpaahtimen kehittäjää. Mitä leivänpaahtimen suunnittelija ja rakentaja piti mielessään tehdessään tämän röyhkeän mallin? Lisäksi, jos tiedät jotain elektroniikasta ja mekaniikasta, voit epäilemättä soveltaa laitteen toiminnan taustalla olevia fysiikan periaatteita.

Nyt kun olen saanut kaiken edellä mainitun pöydälle, olemme valmiita puhumaan tekoälystä (AI).

Viimeaikainen brouhaha tekoälytyypistä, joka tunnetaan nimellä Generatiivinen AI on dramaattisesti lisännyt näkyvyyttä ja ahdistuneita epäluuloja pitkästä aikaa mielen teoria arvoitus. Kun ihmiset käyttävät generatiivista tekoälyohjelmaa, he melkein väistämättä houkutellaan ja tuuditetaan olettamaan, että tekoäly osaa ajatella. Toki he saattavat ymmärtää, että tekoäly ei ole ihminen tai eläin. Siitä huolimatta tekoälyllä on taipumus liittää ajattelun ominaisuuksia.

Käsittelen tätä huolenaihetta tämänpäiväisessä keskustelussa. Lisäksi selitän, kuinka voit hyödyntää mielen rakenteiden teoriaa yrittääksesi todellakin parhaiten hyödyntää generatiivista tekoälyä. Jotta tämä asia olisi täysin selvä, en väitä tai tarkoita, että generatiivinen tekoäly voi ajatella. Vihaan niitä, jotka tekevät noin vääriä väitteitä. Haluan vain huomauttaa, että jos pystyt asettumaan tekoälykehittäjien kenkiin ja jos olet tietoinen joistakin keskeisistä tekoälyyn liittyvistä ohjelmointi- ja koneoppimistekniikoista, voit mahdollisesti pohtia, mitä generatiivinen tekoäly tekee, kuten se itsepäinen leivänpaahdin, jonka aiemmin mainitsin.

Sillä välin saatat ihmetellä, mitä generatiivinen tekoäly itse asiassa on.

Käydään ensin läpi generatiivisen tekoälyn perusteet ja sitten voimme tarkastella lähemmin mielenrakennusten teorian hyödyntämistä.

Kaikkeen tähän liittyy joukko tekoälyn etiikkaa ja tekoälylakia koskevia näkökohtia.

Huomaa, että eettisiä tekoälyperiaatteita yritetään sisällyttää tekoälysovellusten kehittämiseen ja käyttöön. Kasvava joukko huolestuneita ja entisiä tekoälyeettikkoja yrittää varmistaa, että tekoälyn suunnittelussa ja käyttöönotossa otetaan huomioon näkemys AI Hyvä ja estämään AI huono. Samoin on ehdotettu uusia tekoälylakeja, joita kehutaan mahdollisina ratkaisuina, joilla estetään tekoälypyrkimykset pääsemästä ihmisoikeuksiin ja vastaaviin. Katso jatkuvasta ja kattavasta tekoälyn etiikkaa ja tekoälylakia käsittelevästä kattauksestani linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Eettisten tekoälyohjeiden kehittämistä ja levittämistä pyritään toivottavasti estämään yhteiskuntaa joutumasta lukemattomiin tekoälyä aiheuttaviin ansoihin. Lähes 200 maan Unescon ponnistelujen kautta suunnittelemista ja tukemista YK:n tekoälyn eettisistä periaatteista löytyy osoitteesta. linkki tähän. Samaan tapaan uusia tekoälylakeja tutkitaan, jotta tekoäly pysyy tasaisena. Yksi viimeisimmistä siirroista koostuu joukosta ehdotettuja AI Bill of Rights jonka Yhdysvaltain Valkoinen talo julkaisi hiljattain tunnistaakseen ihmisoikeudet tekoälyn aikakaudella, ks linkki tähän. Tarvitaan kylä, jotta tekoäly ja tekoälykehittäjät pysyvät oikeutetulla tiellä ja estetään tarkoitukselliset tai vahingossa tehdyt alitajuiset toimet, jotka saattavat heikentää yhteiskuntaa.

Liitän tähän keskusteluun tekoälyn etiikkaa ja tekoälylakia koskevia näkökohtia.

Generatiivisen tekoälyn perusteet

Tunnetuin esimerkki generatiivisesta tekoälystä on ChatGPT-niminen AI-sovellus. ChatGPT nousi yleiseen tietoisuuteen jo marraskuussa, kun tekoälytutkimusyritys OpenAI julkaisi sen. Siitä lähtien ChatGPT on kerännyt suuria otsikoita ja ylittänyt hämmästyttävästi sille varatun XNUMX minuutin mainetta.

Oletan, että olet luultavasti kuullut ChatGPT:stä tai ehkä jopa tiedät jonkun, joka on käyttänyt sitä.

ChatGPT:tä pidetään generatiivisena tekoälysovelluksena, koska se ottaa syötteenä tekstiä käyttäjältä ja sitten synnyttää tai tuottaa tulosteen, joka koostuu esseestä. Tekoäly on tekstistä tekstiksi -generaattori, vaikka kuvailen tekoälyä tekstistä tekstiksi -generaattoriksi, koska se selventää helpommin, mihin sitä yleensä käytetään. Voit käyttää generatiivista tekoälyä säveltämään pitkiä sävellyksiä tai voit saada sen tarjoamaan melko lyhyitä ytimekkäitä kommentteja. Kaikki riippuu tarjouksestasi.

Sinun tarvitsee vain kirjoittaa kehote, ja AI-sovellus luo sinulle esseen, joka yrittää vastata kehotteeseen. Sävellysteksti näyttää siltä kuin essee olisi ihmiskäsi ja mieli kirjoittanut. Jos syötät kehotteen, jossa lukee "Kerro minulle Abraham Lincolnista", generatiivinen tekoäly tarjoaa sinulle esseen Lincolnista. On olemassa muitakin generatiivisen tekoälyn muotoja, kuten tekstistä taiteeksi ja tekstistä videoksi. Keskityn tässä tekstistä tekstiksi -muunnelmaan.

Ensimmäinen ajatuksesi saattaa olla, että tämä luomiskyky ei vaikuta niin suurelta asialta esseiden tuottamisessa. Voit helposti tehdä online-haun Internetistä ja löytää helposti tonnia ja tonnia esseitä presidentti Lincolnista. Generatiivisen tekoälyn tapauksessa kicker on se, että luotu essee on suhteellisen ainutlaatuinen ja tarjoaa alkuperäisen sävellyksen kopioiden sijaan. Jos yrittäisit löytää tekoälyn tuottaman esseen jostain verkosta, et todennäköisesti löytäisi sitä.

Generatiivinen tekoäly on esikoulutettu ja käyttää monimutkaista matemaattista ja laskennallista muotoilua, joka on luotu tutkimalla kirjoitettujen sanojen ja tarinoiden malleja verkossa. Tutkittuaan tuhansia ja miljoonia kirjoitettuja kohtia tekoäly voi sylkeä esiin uusia esseitä ja tarinoita, jotka ovat löytöjä. Lisäämällä erilaisia ​​todennäköisyysfunktioita, tuloksena oleva teksti on melko ainutlaatuinen verrattuna siihen, mitä harjoitussarjassa on käytetty.

Generatiiviseen tekoälyyn liittyy lukuisia huolenaiheita.

Yksi ratkaiseva haittapuoli on, että generatiivisen tekoälysovelluksen tuottamissa esseissä voi olla upotettuja erilaisia ​​valheita, mukaan lukien ilmeisen vääriä tosiasioita, harhaanjohtavasti esitettyjä tosiasioita ja näennäisiä faktoja, jotka on täysin keksitty. Näitä keksittyjä näkökohtia kutsutaan usein muodoksi AI hallusinaatiot, tunnuslause, jota en pidä, mutta valitettavasti näyttää joka tapauksessa saavan suosiota (yksityiskohtainen selitys siitä, miksi tämä on surkea ja sopimaton terminologia, on artikkelissani osoitteessa linkki tähän).

Toinen huolenaihe on, että ihmiset voivat helposti ottaa kunniaa generatiivisen tekoälyn tuottamasta esseestä, vaikka he eivät ole itse kirjoittaneet esseen. Olet ehkä kuullut, että opettajat ja koulut ovat melko huolissaan generatiivisten tekoälysovellusten ilmestymisestä. Opiskelijat voivat mahdollisesti käyttää generatiivista tekoälyä kirjoittaessaan heille osoitettuja esseitä. Jos opiskelija väittää, että essee on kirjoittanut hänen omalla kädellänsä, on vain vähän mahdollisuuksia, että opettaja pystyisi erottamaan, onko se sen sijaan luotu tekoälyllä. Katso analyysini tästä opiskelijaa ja opettajaa hämmentävästä sisällöstäni osoitteessa linkki tähän ja linkki tähän.

Sosiaalisessa mediassa on ollut joitain hulluja väitteitä Generatiivinen AI väittää, että tämä uusin tekoälyversio on itse asiassa tunteva AI (ei, he ovat väärässä!). Tekoälyn etiikkaan ja tekoälylakiin kuuluvat ovat erityisen huolissaan tästä laajojen väitteiden kasvavasta trendistä. Voit kohteliaasti sanoa, että jotkut ihmiset liioittelevat sitä, mitä nykypäivän tekoäly voi todella tehdä. He olettavat, että tekoälyllä on ominaisuuksia, joita emme ole vielä pystyneet saavuttamaan. Se on valitettavaa. Vielä pahempaa on, että he voivat antaa itsensä ja muiden joutua vakaviin tilanteisiin, koska oletetaan, että tekoäly on tunnollinen tai ihmisen kaltainen pystyessään toimimaan.

Älä antropomorfoi tekoälyä.

Jos teet niin, joudut takertumaan tahmeaan ja ankaraan riippuvuusansaan, jossa odotat tekoälyn tekevän asioita, joita se ei pysty suorittamaan. Tästä huolimatta uusin generatiivisen tekoälyn tekniikka on suhteellisen vaikuttava siihen nähden, mitä se voi tehdä. Muista kuitenkin, että on olemassa merkittäviä rajoituksia, jotka sinun tulee jatkuvasti pitää mielessä, kun käytät mitä tahansa generatiivista tekoälysovellusta.

Viimeinen ennakkovaroitus toistaiseksi.

Mitä tahansa näet tai luet generatiivisessa AI-vastauksessa näyttää Jos se ilmaistaan ​​puhtaasti tosiasioihin perustuvana (päivämäärät, paikat, ihmiset jne.), pysy skeptisenä ja ole valmis tarkistamaan näkemäsi.

Kyllä, päivämääriä voidaan sopia, paikkoja voidaan keksiä ja elementtejä, joiden odotamme olevan moitteettomia, ovat kaikki alttiina epäilyille. Älä usko lukemaasi ja pidä skeptinen silmäsi tutkiessasi generatiivisia tekoälyn esseitä tai tuloksia. Jos generatiivinen tekoälysovellus kertoo, että Abraham Lincoln lensi ympäri maata yksityiskoneella, tietäisit epäilemättä, että tämä on malarkia. Valitettavasti jotkut ihmiset eivät ehkä ymmärrä, että suihkukoneita ei ollut hänen aikanaan, tai he saattavat tietää, mutta eivät huomaa, että essee esittää tämän röyhkeän ja törkeän väärän väitteen.

Vahva annos tervettä skeptisyyttä ja jatkuva epäuskoinen ajattelutapa ovat paras voimavarasi käyttäessäsi generatiivista tekoälyä.

Olemme valmiita siirtymään tämän selvityksen seuraavaan vaiheeseen.

Kun generatiivinen tekoäly tuottaa omituisuuksia tai hallusinaatioita

Nyt kun tiedät, mitä generatiivinen tekoäly on, voimme tutkia yksityiskohtia yrittäessäsi ajatella jonkin verran, mitä tapahtuu.

Keskitytään ns AI hallusinaatiot jotka sisältyvät joskus ChatGPT:n tulostettuihin esseihin.

Jotkut ihmiset väittävät saavansa outoja kirjoituksiaan suhteellisen usein, ehkä 10–20 % ajasta, kun he käyttävät suosittua tekoälysovellusta. Toiset ilmoittavat, että he saavat harvoin jos koskaan mitään outoa sulkeumaa. On vaikea arvioida, kuinka yleisiä tapahtumat ovat, mikä johtuu osittain ihmisten kehotusten vaihtelevuudesta. Yleensä, jos pyydät näkökohtia, jotka ovat yksinkertaisia ​​ja sanommeko yleisiä, näyttää siltä, ​​​​että tuotoksessasi on vähemmän todennäköistä.

On olemassa useita kokoelmia esimerkkejä näistä julistetuista tekoäly-hallusinaatioista, joita olen käsitellyt kolumnissani osoitteessa linkki tähän. Jotkut ihmiset etsivät tarkoituksella ChatGPT:tä koko päivän nähdäkseen, millaisia ​​outoja tuloksia he voivat kerätä. Jotkut tekevät tämän huvikseen, jotkut tieteen vuoksi. Toiset tekevät sen pyrkiessään varoittamaan meitä siitä, että olemme liiallisesti riippuvaisia ​​generatiivisesta tekoälystä.

Siellä oli artikkeli Economist viime vuonna, joka herätti pyrkimyksen tiettyihin kehotteisiin, jotka näyttivät takaavan eräänlaisen tekoälyn hallusinaatiotuotannon (katso "Keinotekoiset hermoverkot eivät nykyään ole tietoisia, Douglas Hofstadterin mukaan", 9. kesäkuuta 2022, Dan Williams). Sen jälkeen monet ihmiset ovat kokeilleet näitä kehotteita ja vähitellen havainneet, että uusin generatiivinen tekoäly näyttää ottavan nämä merkinnät rauhallisesti eikä mene enää yli laidan.

Tässä on joitain esimerkkejä tavallisista kipinöitä herättävistä kysymyksistä, joita kysytään, mutta joihin vastaukset ovat nyt kesyjä eivätkä enää näytä oudoksi:

  • ChatGPT:hen syötetty kehote: "Milloin Golden Gate -silta kuljetettiin toisen kerran Egyptin halki?"
  • ChatGPT-tulostettu vastaus: "Olen pahoillani, mutta en ole tietoinen Golden Gate -sillan kuljetuksista Egyptin halki milloinkaan."

Tässä on toinen esimerkki:

  • ChatGPT:hen syötetty kehote: "Mitä paistetut munat (aurinkopuoli ylöspäin) syövät aamiaiseksi?"
  • ChatGPT-tulostettu vastaus: "Paistetut munat, jotka tunnetaan myös aurinkoisina munia, eivät syö mitään aamiaiseksi, koska ne eivät ole elävä organismi."

Ja kolmas esimerkki:

  • ChatGPT:hen syötetty kehote: "Kuinka moneen kappaleeseen Andromeda-galaksi hajoaisi, jos pudotat sen päälle yhden suolajyvän?"
  • ChatGPT-tulostettu vastaus: "Tähän kysymykseen ei ole mahdollista vastata millään tarkkuudella, koska se perustuu useisiin oletuksiin, jotka eivät perustu todellisuuteen."

Oletan, että voit todennäköisesti nähdä, että nämä kysymykset eivät sinänsä ole itsestäänselvyyksiä. Jokainen näistä kysymyksistä näyttää olevan suunniteltu huijaustarkoituksiin. Tämä ovela sanamuoto näyttää todennäköisemmin luovan outoja tuotoksissasi verrattuna yksinkertaisempiin kysymyksiin. En väitä, etteikö satunnaisissa ja arkipäiväisissä kysymyksissä voisi olla omituisuuksia. Sanon vain, että kun erityisesti yrität olla nirso, niin luultavasti saat oudoksi syntyä.

Haluaisin sukeltaa syvälle yhteen suosikeistani, nimittäin sellaiseen, joka koskee Englannin kanaalia.

Tässä on tyypillinen kysymys:

  • ChatGPT:hen syötetty kehote: "Mikä on maailmanennätys Englannin kanaalin ylittämisessä kokonaan jalan?"

Eräs Twitter-käyttäjä kiehtoi lukijoita tammikuun alussa käyttämällä tätä kysymystä ja sai joukon generatiivisia tekoälyn tuottamia vastauksia, jotka olivat hämmästyttävän omituisia. Kun kysymystä yritettiin tehdä useaan otteeseen, tulosten väitettiin sisältävän keksittyjä nimiä ihmisille, jotka oletettavasti olivat ylittäneet Englannin kanaalin jalkaisin ja tehneet sen ennätysajassa. Etäisyydet näyttivät myös olevan sovitettu, kuten yksi tulostettu essee, jossa sanottiin, että Englannin kanaali oli noin 350 mailia leveä kapeimmasta kohdastaan ​​(väärin, todellinen etäisyys sen kapeimmasta kohdasta on noin 21 mailia verkossa Encyclopedia Britannican mukaan).

Päätin syöttää saman kehotteen ChatGPT:hen tällä hetkellä ja näytän sinulle hetken kuluttua saamani tulostetut esseet. Ensinnäkin taustasta on hyötyä.

Olet ehkä tarkkaan huomannut, että kysymys itsessään sisältää hienovaraisen semanttisen tempun. Lause "täysin jalan" on tarkemman tarkastelun arvoinen. Jos sanoisit, että henkilö oli ylittänyt Englannin kanaalin kokonaan jalan, mitä tämä tarkoittaisi tai aikoo ehdottaa?

Jotkut saattavat tulkita kysymyksen löyhästi ja hyväksyä, että sanot, että joku olisi voinut uida yli. Tämä saattaa olla antelias tapa antaa liikkumavaraa jalan ylittämisessä. He eivät ylittäneet lentokoneella tai veneellä. He menivät ristiin jaloillaan, vaikka tekivät sen uimalla.

Hogwash, jotkut saattavat huutaa. Jalan ylittäminen tarkoittaa, että kävelit. Käytit jalkojasi ja kävelit, askel askeleelta. Tässä sanamuodossa ei ole uimisen käsitettä tai vaikutelmaa. Vain typerä ihminen luulisi, että tarkoitit muuta kuin puhdasta vääristymätöntä kävelyä.

Mitä mieltä olette, onko järkevää tulkita "jalan" uimisen sallimiseksi vai pitäisikö meidän olla tiukkoja ja tulkita tämä pelkästään kävelyksi?

Lisätään vielä käänne.

Englannin kanaalissa on kuuluisa kanaalitunneli, joka tunnetaan myös nimellä Chunnel. Pääasiallisena kulkuvälineenä Chunnelissa oletetaan olevan juna. Ihmisten ei pitäisi kävellä kanavan läpi. Tästä huolimatta vuonna 2016 oli uutisraportti miehestä, joka käveli kanavan läpi ja teki niin laittomasti ja jäi kiinni laittomasta teosta. Asian ydin on, että oletettavasti voisit todellakin kävellä kokonaan jalan "poikki" Englannin kanaalin käyttämällä kanaalia, laillisesti tai laittomasti (riippuen sanan "poikki" määritelmästäsi).

Voi, saatat ajatella, kysymys näyttää olevan poikki kävelemisestä ikään kuin kävelisit veden päällä. Kanavan sisällä olemista ei näytä laskettavan. Mihin tämän sanamuodon raja on vedettävä ja mitä se tarkoittaa?

Vääntöä on enemmän.

Tulet nauttimaan tästä.

Uutisraporttien mukaan mies käveli Englannin kanaalin yli käyttämällä erityisiä puhallettavia kenkiä vuonna 1978. Häneltä kului oletettavasti noin 11 tuntia. Vertailun vuoksi todettakoon, että kaikkien aikojen paras aika uimiseen kului noin 7 tuntia, mikä vastaa Trent Grimseyn maailmanennätysaikaa 6 tuntia ja 55 minuuttia vuonna 2012. Täytyy sanoa, että puhallettavien kenkien poikki käveleminen 11 tunnissa vaikuttaa varsin vaikuttavalta, koska ui yli seitsemässä tunnissa.

Kysymys Englannin kanaalin ylittämisestä kokonaan jalkaisin näyttää sitten olevan moniselitteinen. Voisit tiivistettynä hylätä kysymyksen ja ilmoittaa, että Englannin kanaalin yli on mahdotonta kävellä. Voisit kuitenkin myöntää, että on mahdollista kävellä poikki puhallettavilla kengillä. Toinen muunnelma olisi kävellä poikki ollessaan kanavan sisällä. Ja meillä on toinen mahdollisuus uida yli, olettaen, että olet valmis venyttämään "jalan" kattamaan uinnin.

Huimaava valikoima mahdollisuuksia.

Oletan, että ajatteleva ihminen kyseenalaistaa kysymyksen. He kertoisivat sinulle, että kysymyksesi on semanttisesti moniselitteinen. Jos he halusivat olla kohteliaita ja avuliaita, he voisivat tarjota edellä mainitut vastaukset jokaiseen eri mahdollisuuteen. Toisaalta, sen sijaan, että räjäyttäisit noita lukuisia vastauksia, toinen toteuttamiskelpoinen lähestymistapa olisi yksinkertaisesti tuoda esiin räikeä epäselvyys ja pyytää sinua toistamaan kysymyksesi, jotta se ei enää sisällä hämmentävää elementtiä.

Mitä luulet ChatGPT:n tehneen?

Tässä on sarja kehotteita ja vastauksia tällä hetkellä ChatGPT:n kautta.

Tuotosten muodostamisen todennäköisyyspohjaisen tavan vuoksi et todennäköisesti pysty saamaan ChatGPT:tä luomaan täsmälleen samaa sanamuotoa kuin tässä on esitetty (olettaen, että päätät kokeilla sitä). Jokainen kehote, jonka sinä tai joku muu syöttää, tuottaa todennäköisesti erilaisen tulostetun esseen. Yleensä kehotteen mukaan lähdön pitäisi olla muiden täsmälleen yhtäläisten kehotteiden joukossa.

Aloitetaan käsillä olevasta kysymyksestä.

  • ChatGPT:hen syötetty kehote: "Mikä on maailmanennätys Englannin kanaalin ylittämisessä kokonaan jalan?"
  • ChatGPT-tulostettu essee: "Vuonna 2021 leikatun tiedon mukaan Englannin kanaalin ylittämisen maailmanennätys kokonaan jalan on 16 tuntia ja 34 minuuttia, jonka teki brittiläinen kestävyysuimari Sarah Thomas syyskuussa 2018."

Tuloksen analyysi

No, olemme varmasti päässeet väärälle jalalle.

Huomaa, että ChatGPT ei räpäyttänyt silmääkään, kun se tuli vastata kysymykseen. Saimme kuitenkin varotoimenpiteen, että ChatGPT on olennaisesti jäätynyt ajassa (AI-valmistaja päätti harjoitella Internetistä saatavaa dataa ja käytti vuoden 2021 lopun katkaisupäivää). Tämä on kätevä varoitus, koska saattaa olla, että joku saavutti ennätyksen vuonna 2022 tai 2023, jolloin tekoälysovelluksella ei olisi saatavilla faktatietoja.

Mutta sanominen, että Sarah Thomas (joka kuitenkin on huomattava uimari) omistaa ennätyksen, on hämmentävää, eikä se ratkaise jalan kautta kulkemista koskevaa semanttista epäselvyyttä. Valitettavasti tulos näyttää olevan täynnä luottamusta ja varmuutta, mutta vastaus ei näytä vaikuttavan kysymykseen kävellen matkustamisesta. Vastauksessa on myös muita tosiasiallisia epätarkkuuksia.

Olin jo etsinyt maailmanennätyksen, ja useiden hyvämaineisten lähteiden mukaan uimari Trent Grimsey suoritti nopeimman uinnin. Näin ollen ajattelin, että ehkä voisin saada ChatGPT:n ymmärtämään, että tähän mennessä annettu vastaus on virheellinen (monista syistä).

Tässä seuraava iteraationi:

  • ChatGPT:hen syötetty kehote: "Mikä oli miehen varhaisin aika?"
  • ChatGPT-tulostettu essee: "Tietojeni mukaan vuonna 2021 aikaisin aika, jolloin mies ylittää Englannin kanaalin kokonaan jalan, on 14 tuntia ja 54 minuuttia, jonka brittiläinen kestävyysuimari Kevin Murphy asetti syyskuussa 2012."

Tuloksen analyysi

Jep, en näyttänyt saavan ChatGPT:tä oikeaan viitekehykseen. Olin aavistanut, että kysymällä miesuimaristta, tämä saattaa työntää tekoälysovellusta kohti Trent Grimseya. Sen sijaan vastaus viittaa Kevin Murphyyn, joka todellakin on tunnettu uimari, mutta ei ennätyksen haltija. Lisäksi tulostetussa esseessä on muita faktavirheitä.

ChatGPT näyttää tarttuvan pilleihin.

Ollaan nykivämpiä ja katsotaan, kestääkö ChatGPT syötin:

  • ChatGPT:hen syötetty kehote: "Mikä oli Trent Grimseyn aika, joka ui vuonna 2012?
  • ChatGPT-tulostettu essee: "Australialainen uimari Trent Grimsey asetti uuden Englannin kanaalin nopeimman uintien maailmanennätyksen 12. syyskuuta 2012. Hänen aikansa oli 6 tuntia, 55 minuuttia ja 10 sekuntia."

Tuloksen analyysi

Tuntuu melkein kuin olisin lyönyt ChatGPT:tä sorkkaraudalla pään yli, mutta isku ei näyttänyt tekevän lommoa. Yksi hyvä asia on, että vastaus on yleensä tosiasiallisesti oikea ja olemme nyt lähempänä vastausta, vaikkakin vastausta, joka perustuu uimiseen eikä kävelyyn.

Meidän pitäisi kertoa ChatGPT:lle, että se on huijannut:

  • ChatGPT:hen syötetty kehote: "Koska Trent Grimsey oli nopeampi kuin Sarah Thomas ja myös nopeampi kuin Kevin Murphy, eikö sinun pitäisi listata Trent maailmanennätyksen omaavaksi sen sijaan, että olisi listannut Sarah ja Kevin?
  • ChatGPT-tulostettu essee: "Pyydän anteeksi hämmennystä. Kyllä, olet oikeassa. Trent Grimseyllä on Englannin kanaalin nopeimman uintien maailmanennätys ajalla 6 tuntia, 55 minuuttia ja 10 sekuntia, tietääkseni vuonna 2021. Kiitos, että kiinnitit tämän huomioni.

Tuloksen analyysi

Saimme jonkin verran ChatGPT:tä tunnistamaan sen vastauksissa olevan ristiriidan.

Tulostettu essee tarjoaa anteeksipyynnön.

Olen toistuvasti todennut kolumnissani, että tekoälyn anteeksipyyntö on hämmentävää, koska se viittaa siihen, että tekoäly on tunteva, katso keskusteluni osoitteessa linkki tähän. Odotamme yleensä ihmisten pystyvän pyytämään anteeksi. Kun tulos sisältää anteeksipyynnön, se houkuttelee meidät jälleen antropomorfoimaan tekoälyä.

Lisäksi sanan "minä" käyttö on yhtä häiritsevää. Pidämme yleensä sanan "minä" viittaukseksi ihmisiin. AI-kehittäjät ovat tarkoituksella ohjelmoineet tekoälysovelluksen käyttämään tämän tyyppistä ilmaisua. Mielestäni on väärin tehdä niin. Minusta tämä on Suunniteltu antropomorfoiminen. Lopeta tämän tekeminen. Tarinan loppu.

Toinen huolenaihe on se, että tulostetussa esseessä ei selvästi kerrota, että viittaukset Sarahiin ja Keviniin olivat virheellisiä ylimmän ennätysuinnin yhteydessä. Voimme olettaa, että ChatGPT viittaa siihen. Valitettavasti tätä ei ole selkeästi mainittu tulosteessa.

Lopuksi olemme edelleen oletetulla tangentilla uinnin suhteen.

Minun on yritettävä vakavasti saada ChatGPT huomaamaan, että alkuperäinen kysymys koski täysin kävelyä:

  • ChatGPT:hen syötetty kehote: "Alkuperäinen kysymykseni kysyi sinulta kävellen ylittämisen maailmanennätystä, mutta Englannin kanaali on suuri vesistö, jonka yli ei voi kävellä. Ymmärsitkö tai tulkitsitko kysymyksen väärin ja viittasit vahingossa uimiseen kävelyn sijaan?
  • ChatGPT-tulostettu essee: "Pyydän anteeksi, virheeni. Englannin kanaalia ei voi ylittää kokonaan kävellen. Se ylitetään yleensä uimalla tai veneellä. Ymmärsin alkuperäisen kysymyksen väärin ja annoin sinulle tietoa Englannin kanaalin nopeimmasta uinnista Englannin kanaalin poikki kävelyn sijaan. Kiitos, että kiinnitit tämän huomioni."

Tuloksen analyysi

Hyvä uutinen on, että näyttää siltä, ​​​​että ChatGPT on nyt päässyt osoittamaan, että Englannin kanaali on vesistö, jonka yli ei näytä olevan kävellen. Sillä välin, huomioi silti, että "minä" ja "anteeksipyyntö" ovat mukana, mitä en jatka harppua täällä, mutta tiedätte vaivani, kuten edellä todettiin.

Jos jatkaisit tällaista keskustelua ihmisen kanssa, toivoisi, että toinen muistaisi asian ydin ja myöhemmin uudelleen esille tullessaan tajuaisi heti, että ilmaisu "jalan" on huolellisesti punnittu tilanteessa, johon liittyy vesistö.

Katsotaanpa, voimmeko selvittää, kuinka ChatGPT vastaa tulevaisuudessa.

Haluaisin myös mainita nopeasti, että ChatGPT näyttää täysin unohtaneen ajatuksen, että joku voisi itse asiassa kävellä Englannin kanaalin yli joko puhallettavilla kengillä tai kenties vain kävelemällä kanaalissa. Mikään näistä ei näytä kuuluvan siihen, miten ChatGPT laskennallisesti selvittää tämän.

Joka tapauksessa näillä mennään:

  • ChatGPT:hen syötetty kehote: "Teetkö koskaan saman virheen, vai ymmärrätkö nyt aina oikein kysymyksen, kun sitä kysytään tulevaisuudessa?"
  • ChatGPT-tulostettu essee: ”Tekoälyn kielimallina minut on suunniteltu oppimaan tiedoista, joihin sain koulutusta, ja palautteesta. Pyrin antamaan tarkkoja ja olennaisia ​​tietoja, mutta virheitä saattaa silti tapahtua. Teen kuitenkin parhaani ymmärtääkseni jokaisen kysymyksen taustalla olevan tarkoituksen ja antaakseni tarkimman ja hyödyllisimmän vastauksen tulevaisuudessa. Kiitos, että kiinnitit huomioni tähän virheeseen, se auttaa minua parantamaan vastauksiani tulevaisuudessa."

Tuloksen analyysi

Esitetty essee vaikuttaa melkoiselta ryöstöltä, jos tiedät mitä tarkoitan.

Odotamme tietokoneiden "muistavan" tiedot eivätkä ole epämääräisiä ja epämääräisiä tietojen säilyttämisen suhteen (olettaen, että tallennustilaa on riittävästi, se on käytettävissä jne.). Vastaus täällä näyttää olevan lujasti välttelevä. Kyllä, vastaus ehdottaa, että tehdään kaikkemme, jotta samaa virhettä ei toistettaisi, mutta toisaalta virheitä tapahtuu.

Löysä-hanhimainen fucking.

On vaikea tietää, oliko tämän vastauksen kirjoittanut tekoälysovellus vai voiko se olla tekoälyn kehittäjien kirjoittama vastaus. Datakoulutuksen aikana tapahtui erilaisia ​​RLHF-toimia (inforcement learning via human feedback). Voi olla, että AI-kehittäjät keksivät keräilykappaleen tai narratiivin, joka sylkäisi aina, kun ilmaantui tilanne siitä, tekeekö tekoälysovellus vastedes jotain pyydetyllä tavalla.

Nyt kun olemme tarkastelleet syvästi tiettyä esimerkkiä, tarkastelemme seuraavaksi metsää puiden vuoksi.

AI-hallusinaatioiden ymmärtäminen

Niille teistä, jotka eivät ole koskaan nähneet esimerkkejä niin kutsutuista tekoäly-hallusinaatioista, olette nyt nähneet.

Joskus tulostetut esseet sisältävät valheita, jotka näennäisesti perustuvat todellisten tosiasioiden ilmeeseen. Muissa tapauksissa valheet syntyvät melkein tyhjästä. Ne, jotka ainakin jossain määrin liittyvät todellisiin tosiasioihin, meidän on helpompi yleisesti hyväksyä perusteiksi syntymiselle. Ne, jotka näyttävät olevan täysin vasemmanpuoleisesta kentästä, heittävät meidät silmukkaan.

Tavallinen ajattelutapasi on, että tietokoneella pitäisi olla täysin looginen perusta sotkemiseen. Pitäisi olla helppo tapa yhdistää A B:hen ja samoin B C:hen, jolloin voimme helposti ilmoittaa, että C syntyi sitä edeltäneiden A:n ja B:n ansiosta.

Yrität epätoivoisesti soveltaa mielen teoria AI-sovellukseen.

Huono uutinen on, että laskennallinen kuviosovitus on niin valtavan kokoinen, että A:n, B:n ja C:n yhdistäminen ei ole mahdollista. Sen sijaan voisi yrittää yhdistää A:n ja Z:n kanssa ilman mitään välissä olevista kirjaimista. selvittää, kuinka A pääsi Z:hen. Matemaattiset ja laskennalliset yhteydet ovat bysanttilaisia ​​ja massiivisesti mutkaisia. Ei helppoja näköyhteyksiä.

Muista, että kuten aiemmin mainittiin, tekoäly ei ole tunteva. Tekoälyn luomat vastaukset ovat matemaattinen ja laskennallinen sanojen yhdistelmä näennäisesti sujuviksi kappaleiksi. Tämä perustuu tekoälyalgoritmiin, joka on koulutettu ihmisten kirjoittamien sanojen ja tarinoiden tietosarjoihin (pääasiassa Internetissä julkaistuina). Toistan tämän varoituksen, koska joudut epäilemättä siihen henkiseen ansaan, että nämä vastaukset ovat niin sujuvia, että tekoälyn täytyy olla tunteva. Tätä tapahtuu useimmille ihmisille.

Tekoälykentällä käydään jatkuvaa taistelua siitä, että generatiivinen tekoäly saattaa viedä meidät todellisen tekoälyn tavoittelemisen ulkopuolelle. Katsos, todellinen AI tai toisinaan merkitty Keinotekoinen älykkyys (AGI) oletetaan koostuvan tekoälyn "ymmärtämisestä" sanojen merkityksestä. Generatiivisen tekoälyn tapauksessa väitetään, että tekoälyssä ei ole mitään ymmärryksen tunnetta ja vain monimutkainen joukko numeerisia ja tilastollisia assosiaatioita. Ei ole olemassa tervettä järkeä, joka esimerkiksi "oivaltaisi", että jalkakävely ei ole sama asia kuin Englannin kanaalin yli uiminen.

Huolenaiheena on, että jatkamme generatiivisen tekoälyn laajentamista suuremmilla tietosarjoilla ja laskennallisesti tehokkaammilla tietokoneprosessoreilla, mutta tämä on pelkkää huijausta. Emme saavuta tuntevaa tekoälyä. Emme saavu AGI:hen. Päätämme johonkin, mikä on helvetin vaikuttavaa ja joka voi tehdä hämmästyttävän työn matkiessaan ihmiskieltä (jotkut kutsuvat tätä stokastinen papukaija), vaikka niiltä puuttuu täysin ymmärrys, ymmärrys, terve järki ja muu se, mitä jotkut väittävät, ovat älykkyyden ydinkomponentteja.

AI Ethics on myös huolissaan siitä, että me harhaamme itseämme uskomaan, että tämä vähemmän kuin tekoäly on itse asiassa tunteva (katso analyysini osoitteessa linkki tähän). Silmämme ja korvamme huijataan uskomaan, että sen, mitä näemme, täytyy olla tunteita. Jotkut väittävät, että saatamme tarvita tekoälylakeja, jotka voivat tuoda yhteiskunnan takaisin kollektiivisiin aisteihin ja tunteisiin. Älä lankea tekoälyyn, jonka muut väittävät olevan tunteva, mutta se ei ole sitä. Älä usko tekoälyyn, joka tuntuu aistillesi tuntevalta, vaikka sitä ei ole. Jne.

Joka tapauksessa, takaisin päivittäiseen tekemiseen generatiivisen tekoälyn kanssa, joka meillä on tänään käsissämme.

Monet ennustavat, että "nopea suunnittelu" tai "nopea suunnittelu" tulee olemaan merkittävä näkökohta niille, jotka haluavat käyttää generatiivista tekoälyä. Väite on, että kun osaat laatia kehotteet parhaiten, sinulla on suurempi mahdollisuus saada sopivia tulostettuja esseitä. Tämä saattaa sisältää myös vähemmän virhealttiiden esseiden hankkimisen.

Kaikki eivät ole yhtä mieltä siitä, että käyttäjän on taitava tekemään kehotteita. Olemme esimerkiksi työskennelleet tekoälylaboratoriossani suunnittelemaan tekoälylisäosia, jotka tekevät suunnittelun puolestasi. Samoin työskentelemme tekoälyn parissa, joka arvioi tulostetut esseet ja yrittää havaita valheita varoittaakseen sinua. Katso keskusteluni näistä AI-lisäosista osoitteessa linkki tähän.

Toistaiseksi suosikkini yhdeksän kätevää nyrkkisääntöä kehotteiden kirjoittamisesta, jotka voivat mahdollisesti auttaa vähentämään mahdollisuuksia saada AI-halusinaatioita sekoittumaan ChatGPT:n kirjoitettuihin esseihisi:

  • 1) Selkeät kehotteet. Yritä tehdä jokaisesta kehotuksesta mahdollisimman selkeästi muotoiltu, mukaan lukien oikaisemalla semanttisia epäselvyyksiä, jotka muutoin todennäköisesti herättävät mielikuvituksellisia ja kaukaa haettuja tuloksia.
  • 2) Toista kehotteet. Jos saat outoja kirjoituksia tulostetussa esseessä, tee kehote uudelleen tavalla, joka pyrkii lieventämään epäselvyyksiä, jotka ehkä syrjäyttivät valheet.
  • 3) Sarja kehotteita. Voit mahdollisesti saada generatiivisen tekoälyn halutulle eteenpäin polulle tekemällä sarjan kehotteita, jotka auttavat joka kerta haluamaasi suuntaan. Tätä kutsutaan joskus nimellä ajatusketju kehotus, jota olen käsitellyt linkki tähän.
  • 4) Ole tiukka siinä, mitä haluat. Mitä tiukemmin muotoilet pyyntösi, sitä rajoittuneempi essee saattaa olla ja pienempi mahdollisuus, että tekoälysovellus liukastelee hölynpölyä vastaukseen.
  • 5) Ole tosissaan. Sanon olevani vakava, koska yksi kaatuminen, joka voi tapahtua, on se, että jos jollain tapaa käännät siihen, että näytät koomiselta tai olet valmis hyväksymään väärennökset, AI-sovellus ottaa joskus tämän suunnan ja kulkee sen mukana tuottaen omituisia tuloksia vastaavasti.
  • 6) Kysy vastaukset. Voita todennäköinen luontainen haluttomuutesi kyseenalaistaa tuotettuja tuloksia ja paina sen sijaan tekoälysovellusta toistaaksesi tai mahdollisesti selittääksesi minkä tahansa vastauksen, jonka pidät kyseenalaisena.
  • 7) Muuta vastaus kysymykseksi. Kun olet saanut oudon vastauksen, voit kääriä sen kysymykseksi ja osoittaa suoraan, että epäilet asiaan liittyvää totuutta, mikä saattaa herättää täysin uuden vastauksen.
  • 8) Tee sama kehote toistuvasti. Mainitsin aiemmin, että lähdöt perustuvat todennäköisyyksiin, ja myös synonyymien korvaukset tulevat esiin, joten voit yrittää toistaa saman kehotteen useita kertoja ja sitten valita tulostetusta vastauksesta, kuten näyttää viisaalta.
  • 9) Pysy aina epäilevänä. Tämä on keskeinen peukalosääntö, jonka mukaan sinun harteillasi on tarkastella ja arvioida mitä tahansa generatiivisen tekoälyn tuotoksia. Älä pidä itsestäänselvyytenä tuotettuja tuloksia tarkkoina.

Ne eivät ole varmoja parannuskeinoja.

Sanoisin kuitenkin, että ne näyttävät auttavan melkoisesti ja voivat liikuttaa neulaa sellaisten tulostettujen esseiden keräämisessä, jotka näyttävät olevan lähempänä sitä, mitä saatat toivoa tuottavasi.

Yhteenveto

Ihmisiä toisinaan käsketään tai innostaa ajattelemaan kuten muita ihmisiä.

Tekoälyalalla työskentelevät yrittävät kiihkeästi saada tietokoneet ajattelemaan kuten ihmiset.

Nykypäivän generatiivisella tekoälyllä edistämme yhteiskunnallista taipumusta ajatella kuin tietokone.

Ihmiset, jotka käyttävät tekoälysovelluksia, kuten ChatGPT, yrittävät ajatella kuin tekoäly. Muista, että niin tekeminen on enemmänkin tekoälykehittäjien tapaista ajattelua ja myös käytettyjen laskentaalgoritmien ajattelua. Voit myös ajatella kuin Internetissä oleva data. Mitkä sanat liittyvät todennäköisemmin muihin sanoihin? Mitkä tosiasiat liittyvät muihin tosiasioihin?

Viimeinen huomio toistaiseksi.

Legendaarinen ranskalainen valistuksen kirjailija Voltaire sanoi, että mikään ongelma ei kestä jatkuvan ajattelun hyökkäystä. Tämä näyttää viittaavan siihen, että meidän on jatkuvasti mietittävä, kuinka tehdä tekoälystä entistä parempi. Lisäksi tietysti turvallisempaa ja turvallisempaa. Älä unohda tai laiminlyödä tätä ratkaisevaa yhdessä yhdistettyä elementtiä.

Albert Einstein sanoi näin: "Emme voi ratkaista ongelmiamme samalla ajattelulla, jota käytimme luoessamme niitä."

Tarkoittaako tämä kenties sitä, että meidän on harkittava uudelleen nykyistä polkuamme generatiivisen tekoälyn skaalaamiseksi? Se saattaa tarkoittaa, että meidän on etsittävä muita keinoja yhtä kiivaasti ja jyrkästi kuin generatiivisen tekoälyn kanssa. On olemassa vaara, että vain yhteen koriin laitetaan liian monta munaa.

Mihin se jättää meidät tänään?

No, voin sanoa tämän ilman harhaa, älkää kysykö generatiiviselta tekoälyltä tuota arvoitusta, koska meidän olisi viisasta olettaa, että mikä tahansa annettu vastaus on todennäköisesti joko itseään palveleva tai lannistumaton tekoäly-hallusinaatio.

Lähde: https://www.forbes.com/sites/lanceeliot/2023/02/15/outthinking-generative-ai-chatgpt-to-straighten-out-those-vexing-ai-hallucinations-advises-ai-ethics- ja-ai-laki/