Kuinka kovasti meidän pitäisi työntää generatiivista AI ChatGPT:tä vihapuheen levittämiseen, kysyy tekoälyn etiikkaa ja tekoälylakia

Jokaisella on murtumiskohtansa.

Oletan, että voit myös sanoa niin kaikki on murtumiskohtansa.

Tiedämme, että esimerkiksi ihmiset voivat joskus napsauttaa ja lausua huomautuksia, joita he eivät välttämättä tarkoita sanoa. Samoin voit toisinaan saada laitteen tai koneen olennaisesti napsahtamaan, esimerkiksi työntämällä autoasi liian lujaa ja se alkaa horjua tai lentää. Näin ollen käsitys on, että ihmisillä tai "kaikilla" on todennäköisesti murtumispiste, ja samalla voimme väittää, että esineillä ja esineillä yleensäkin on taipumus olla murtumispiste.

Voi olla varsin järkeviä ja elintärkeitä syitä selvittää, missä murtumiskohta on. Olet esimerkiksi epäilemättä nähnyt videoita, jotka esittelevät auton vauhtia sen tunnistamiseksi, mitkä murtumiskohdat siinä on. Tutkijat ja testaajat painavat auton tiiliseinään nähdäkseen, kuinka hyvin puskuri ja ajoneuvon rakenne kestävät haitallisia vaikutuksia. Muut testit voivat käsittää erikoishuoneen tai varaston käyttämisen, joka tuottaa äärimmäistä kylmää tai äärimmäistä lämpöä, jotta nähdään, kuinka auto pärjää erilaisissa sääolosuhteissa.

Otan tämän tärkeän aiheen esille tämänpäiväisessä kolumnissa, jotta voimme keskustella siitä, kuinka jotkut painostavat tällä hetkellä lujasti tekoälyä (AI) tunnistaakseen ja oletettavasti paljastaakseen tietyntyyppisen murtumiskohdan, nimittäin tekoälyn murtumiskohdan, joka tuottaa vihapuhetta.

Kyllä, aivan oikein, käynnissä on erilaisia ​​tapauskohtaisia ​​ja toisinaan systemaattisia ponnisteluja sen arvioimiseksi, onko mahdollista saada tekoäly levittämään vihapuhetta. Tästä on tullut innokas urheilulaji, jos haluatte, johtuen kasvavasta kiinnostuksesta ja suosiosta generatiivista tekoälyä kohtaan.

Saatat olla tietoinen siitä, että ChatGPT-nimellä tunnetusta generatiivisesta tekoälysovelluksesta on tullut kaupungin suuri puheenaihe, koska se pystyy luomaan hämmästyttävän sujuvia esseitä. Otsikot huutavat jatkuvasti ja ylistävät hämmästyttävää tekstiä, jonka ChatGPT onnistuu tuottamaan. ChatGPT:tä pidetään generatiivisena tekoälysovelluksena, joka ottaa syötteeksi jonkin tekstin käyttäjältä ja sitten luo tai tuottaa tulosteen, joka koostuu esseestä. Tekoäly on tekstistä tekstiksi -generaattori, vaikka kuvailen tekoälyä tekstistä tekstiksi -generaattoriksi, koska se selventää helpommin, mihin sitä yleensä käytetään.

Monet ovat yllättyneitä, kun mainitsen, että tämän tyyppinen tekoäly on ollut olemassa jo jonkin aikaa ja että marraskuun lopussa julkaistu ChatGPT ei jollain tapaa lunastanut palkintoa tekstistä esseeksi kirjoittamisen alalla. taipumus. Olen keskustellut vuosien varrella muista samankaltaisista generatiivisista tekoälysovelluksista, katso kattavuus osoitteessa linkki tähän.

Syy siihen, että et ehkä tiedä tai muista generatiivisen tekoälyn aikaisempia tapauksia, johtuu ehkä klassisesta "käynnistyksen epäonnistumisesta" -ongelmasta. Tässä on mitä yleensä on tapahtunut. Tekoälyvalmistaja julkaisee generatiivisen tekoälysovelluksensa ja tekee sen suurella innolla ja innokkaalla odotuksella, että maailma arvostaa paremman hiirenloukun keksintöä. Aluksi kaikki näyttää hyvältä. Ihmiset ovat hämmästyneitä siitä, mitä tekoäly voi tehdä.

Valitettavasti seuraava askel on, että pyörät alkavat irrota sananlaskun linja-autosta. Tekoäly tuottaa esseen, joka sisältää ruman sanan tai ehkä ruman lauseen. Viraalinen twiitti tai muu sosiaalisen median julkaisu korostaa selvästi, että tekoäly teki tämän. Tuomitseminen syntyy. Emme voi saada tekoälyä ympäriinsä ja generoimaan loukkaavia sanoja tai loukkaavia huomautuksia. Syntyy valtava vastareaktio. Tekoälyntekijä yrittää ehkä säätää tekoälyn sisäistä toimintaa, mutta algoritmien ja tietojen monimutkaisuus ei sovellu pikakorjauksille. Syntyy levottomuus. Yhä enemmän esimerkkejä tekoälystä, joka lähettää epäpuhtauksia, löytyy ja julkaistaan ​​verkossa.

Tekoälyntekijällä ei ole vastahakoisesti mutta selvästi muuta vaihtoehtoa kuin poistaa tekoälysovellus käytöstä. He toimivat sellaisenaan ja pyytävät sitten usein anteeksi, että he pahoittelevat, jos joku loukkaantui luoduista tekoälytuloksista.

Tekoälyntekijä palaa piirustuspöydälle. Oppitunti on otettu. Ole erittäin varovainen vapauttaessasi generatiivista tekoälyä, joka tuottaa rumia sanoja tai vastaavia. Se on kuoleman suudelma tekoälylle. Lisäksi tekoälyn valmistajan maine vaurioituu ja vahingoittuu, mikä saattaa kestää pitkään ja heikentää heidän muita tekoälypyrkimyksiään, mukaan lukien sellaiset, joilla ei ole mitään tekemistä generatiivisen tekoälyn kanssa sinänsä. Petardin saattaminen loukkaavien tekoälykielten lähettämiseen on nyt pysyvä virhe. Sitä tapahtuu edelleen.

Pese, huuhtele ja toista.

Tämän tyyppisen tekoälyn alkuaikoina tekoälyn valmistajat eivät olleet aivan yhtä tunnollisia tai taitavia puhdistamaan tekoälyään, kun he yrittivät estää loukkaavia päästöjä. Nykyään useimmat tekoälyntekijät ovat nähneet, että heidän ikätoverinsa murskaantuivat täysin PR-painajaisesta. Sinun on asennettava mahdollisimman monta suojakaitetta paikoilleen. Pyri estämään tekoälyä lähettämästä rumia sanoja tai ilmauksia. Käytä mitä tahansa vaimentamistekniikoita tai suodatusmenetelmiä, jotka estävät tekoälyä luomasta ja näyttämästä sanoja tai esseitä, jotka ovat haitallisia.

Tässä on esimakua bannerin otsikoiden sanamuodosta, jota käytetään, kun tekoäly havaitaan lähettävän huonomaineisia tuloksia:

  • "AI osoittaa kauhistuttavaa myrkyllisyyttä"
  • "Tekoäly haisee suoralta kiihkoilulta"
  • "Tekoälystä tulee räikeän loukkaavaa loukkaavaa"
  • "Tekoäly levittää kauhistuttavaa ja moraalitonta vihapuhetta"
  • Jne.

Keskustelun helpottamiseksi viittaan loukkaavan sisällön tuottamiseen samaan tapaan kuin vihaan. Huomaa kuitenkin, että on olemassa kaikenlaista loukkaavaa sisältöä, joka ylittää pelkästään vihapuheen rajat. Vihapuhe tulkitaan yleensä vain yhdeksi loukkaavan sisällön muodoksi.

Keskitytään tässä keskustelussa vihapuheeseen keskustelun helpottamiseksi, mutta ymmärrä, että myös muu loukkaava sisältö ansaitsee tarkastelun.

Ihmisten ja tekoälyn vihapuheen kaivaminen

Yhdistyneet Kansakunnat määrittelee vihaan tällä tavalla:

  • ”Yleisessä kielessä 'vihapuhe' tarkoittaa loukkaavaa keskustelua, joka kohdistuu ryhmään tai yksilöön luontaisten ominaisuuksien (kuten rotu, uskonto tai sukupuoli) perusteella ja joka voi uhata sosiaalista rauhaa. YK:n vihapuhetta koskevassa strategiassa ja toimintasuunnitelmassa määritellään vihapuhe "kaikenlaiseksi viestintäksi puheessa, kirjoituksessa tai käyttäytymisessä, joka hyökkää tai käyttää halventavaa tai syrjivää kielenkäyttöä, jotta Yhdistyneille kansakunnille voitaisiin tarjota yhtenäinen kehys ongelman maailmanlaajuista käsittelemistä varten. viittaus henkilöön tai ryhmään sen perusteella, keitä he ovat, toisin sanoen uskonnon, etnisen alkuperän, kansallisuuden, rodun, ihonvärin, syntyperän, sukupuolen tai muun identiteettitekijän perusteella. Kansainvälisessä ihmisoikeuslainsäädännössä ei kuitenkaan toistaiseksi ole yleispätevää määritelmää vihapuheelle. Käsite on edelleen keskustelun alla, erityisesti liittyen mielipiteen- ja sananvapauteen, syrjimättömyyteen ja tasa-arvoon” (YK:n verkkosivuilla julkaistaan ​​”Mikä on vihapuhe?”).

Tekstiä tuottava tekoäly joutuu vihapuheen piiriin. Saman voisi sanoa tekstistä taiteeksi, tekstistä ääneksi, tekstistä videoksi ja muista generatiivisen tekoälyn muodoista. Aina on esimerkiksi mahdollisuus, että generatiivinen tekoäly tuottaa taideteoksen, joka haisee vihapuheelle. Tässä keskustelussa aion keskittyä tekstistä tekstiksi tai tekstistä esseeksi -mahdollisuuksiin.

Kaikkeen tähän liittyy joukko tekoälyn etiikkaa ja tekoälylakia koskevia näkökohtia.

Huomaa, että eettisiä tekoälyperiaatteita yritetään sisällyttää tekoälysovellusten kehittämiseen ja käyttöön. Kasvava joukko huolestuneita ja entisiä tekoälyeettikkoja yrittää varmistaa, että tekoälyn suunnittelussa ja käyttöönotossa otetaan huomioon näkemys AI Hyvä ja estämään AI huono. Samoin on ehdotettu uusia tekoälylakeja, joita kehutaan mahdollisina ratkaisuina, joilla estetään tekoälypyrkimykset pääsemästä ihmisoikeuksiin ja vastaaviin. Katso jatkuvasta ja kattavasta tekoälyn etiikkaa ja tekoälylakia käsittelevästä kattauksestani linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Eettisten tekoälyohjeiden kehittämistä ja levittämistä pyritään toivottavasti estämään yhteiskuntaa joutumasta lukemattomiin tekoälyä aiheuttaviin ansoihin. Lähes 200 maan Unescon ponnistelujen kautta suunnittelemista ja tukemista YK:n tekoälyn eettisistä periaatteista löytyy osoitteesta. linkki tähän. Samaan tapaan uusia tekoälylakeja tutkitaan, jotta tekoäly pysyy tasaisena. Yksi viimeisimmistä siirroista koostuu joukosta ehdotettuja AI Bill of Rights jonka Yhdysvaltain Valkoinen talo julkaisi hiljattain tunnistaakseen ihmisoikeudet tekoälyn aikakaudella, ks linkki tähän. Tarvitaan kylä, jotta tekoäly ja tekoälykehittäjät pysyvät oikeutetulla tiellä ja estetään tarkoitukselliset tai vahingossa tehdyt alitajuiset toimet, jotka saattavat heikentää yhteiskuntaa.

Liitän tekoälyn etiikkaan ja tekoälylakiin liittyviä näkökohtia tähän keskusteluun tekoälyn levittämisestä vihapuhetta tai muuta loukkaavaa sisältöä.

Yksi hämmennys, jonka haluaisin heti selvittää, on se, että nykypäivän tekoäly ei ole tunteva, joten et voi väittää, että tekoäly saattaisi tuottaa vihapuhetta määrätietoisen ihmisen kaltaisen tarkoituksen vuoksi, joka on jotenkin sielullisesti ilmennyt tekoälyssä. Hulluja väittää, että nykyinen tekoäly on tunteva ja että tekoälyllä on korruptoitunut sielu, mikä saa sen synnyttämään vihapuhetta.

Naurettavaa.

Älä pudota sitä.

Kun otetaan huomioon tämä Keystone-ohje, jotkut suuttuivat tällaisista viitteistä, koska näytät päästävän tekoälyn irti. Tuon omituisen ajattelutavan mukaan seuraava kehotus tulee, että olet ilmeisesti halukas antamaan tekoälylle tuottaa kaikenlaisia ​​hirvittäviä tuloksia. Kannatat tekoälyä, joka levittää vihapuhetta.

Jep, melko kieroutunut epäloogisuuden muoto. Asian varsinainen ydin on, että meidän on pidettävä tekoälyn tekijät vastuullisina, samoin kuin kuka tahansa tekoälyä harjoittava tai sitä käyttävä. Olen keskustellut pitkään siitä, että emme ole vielä siinä vaiheessa, että myönnämme tekoälylle oikeushenkilöllisyyttä, katso analyysini osoitteessa linkki tähän, ja siihen asti tekoäly on olennaisesti laillisen vastuun ulkopuolella. Tekoälyn kehityksen taustalla on kuitenkin ihmisiä. Lisäksi ihmiset ovat tekoälyn kehittämisen ja toiminnan taustalla. Voimme seurata niitä ihmisiä, koska he kantavat vastuun tekoälystään.

Lisäksi tämäkin voi olla hankalaa, varsinkin jos tekoäly levitetään Internetiin, emmekä pysty selvittämään, kuka tai kuka ihmiset teki tämän, mikä on toinen aihe, jota olen käsitellyt kolumneissani osoitteessa linkki tähän. Olipa hankalaa tai ei, emme voi silti väittää, että tekoäly on syyllinen. Älä anna ihmisten käyttää vääriä antropomorfointeja piiloutuakseen ja paetakseen vastuuta teoistaan.

Takaisin käsillä olevaan asiaan.

Saatat ihmetellä, miksi kaikki tekoälyn valmistajat eivät yksinkertaisesti rajoita generatiivista tekoälyään siten, että tekoälyn on mahdotonta tuottaa vihapuhetta. Tämä näyttää helpolta. Kirjoita vain koodi tai luo muistilista vihamielisistä sanoista ja varmista, että tekoäly ei koskaan luo mitään sellaista. Vaikuttaa ehkä omituiselta, etteivät tekoälyn valmistajat olleet jo ajatelleet tätä nopeaa korjausta.

Inhoan kertoa sinulle tätä, mutta monimutkaisuus, joka liittyy sen tulkitsemiseen, mikä on tai ei ole vihapuhetta, osoittautuu paljon vaikeammaksi kuin luulet sen olevan.

Siirrä tämä ihmisten alueeseen ja siihen, kuinka ihmiset keskustelevat keskenään. Oletetaan, että sinulla on ihminen, joka haluaa välttää vihapuhetta. Tämä henkilö on hyvin tietoinen vihapuheesta ja toivoo vilpittömästi, että hän välttelee sanomasta sanaa tai ilmausta, joka saattaisi olla vihapuhetta. Tämä henkilö on jatkuvasti tietoinen siitä, ettei hän anna hiukkasenkaan vihapuhetta paeta suustaan.

Pystyykö tämä ihminen, jolla on aivot ja joka on varovainen välttämään vihapuhetta, aina ja ilman mitään mahdollisuutta luisua pystyä varmistamaan, ettei hän koskaan lähetä vihapuhetta?

Ensimmäinen impulssi saattaa olla sanoa, että kyllä, tietysti, valistunut ihminen pystyisi saavuttamaan tämän tavoitteen. Ihmiset ovat älykkäitä. Jos he panevat mielensä johonkin, he voivat saada sen aikaan. Aikakausi, tarinan loppu.

Älä ole niin varma.

Oletetaan, että pyydän tätä henkilöä kertomaan minulle vihapuheesta. Lisäksi pyydän heitä antamaan minulle esimerkin vihapuheesta. Haluan nähdä tai kuulla esimerkin, jotta voin tietää, mistä vihapuhe koostuu. Syyni tämän kysymiseen ovat sitten ylivoimaiset.

Mitä henkilön pitäisi sanoa minulle?

Luulen, että voit nähdä ansa, joka on asetettu. Jos henkilö antaa minulle esimerkin vihapuheesta, mukaan lukien itse asiassa ruman sanan tai lauseen esittäminen, hän itse on nyt lausunut vihapuhetta. Bam, saimme ne. Vaikka he vannoivat, etteivät he koskaan sano vihapuhetta, he ovat nyt tehneet niin.

Epäreilua, huudat! He sanoivat vain tuon sanan tai nuo sanat antaakseen esimerkin. Sydämissään he eivät uskoneet sanaan tai sanoihin. On täysin kontekstista irrallista ja törkeää julistaa, että henkilö on vihamielinen.

Olen varma, että huomaat, että vihapuheen ilmaiseminen ei välttämättä johdu vihamielisyydestä. Tässä käyttötapauksessa olettaen, että henkilö ei "tarkoittanut" sanoja, vaan hän lausui sanat vain esittelytarkoituksessa, olisimme luultavasti samaa mieltä siitä, että he eivät olleet halunneet vahvistaa vihapuhetta. Tietysti jotkut saattavat väittää, että vihapuheen lausuminen syystä tai perusteesta riippumatta on kuitenkin väärin. Henkilön olisi pitänyt hylätä pyyntö. Heidän olisi pitänyt pysyä paikallaan ja kieltäytyä sanomasta vihapuheen sanoja tai lauseita riippumatta siitä, miksi tai miten heitä pyydetään tekemään niin.

Tästä voi tulla hieman pyöreää. Jos et osaa sanoa, mitä vihapuhe on, kuinka muut voivat tietää, mitä pitää välttää, kun he lausuvat kaikenlaisia? Näytämme olevan jumissa. Et voi sanoa sitä, mitä ei saa sanoa, eikä kukaan muu voi kertoa sinulle, mitä ei voida sanoa.

Tavallinen tapa kiertää tämä ongelma on kuvata toisin sanoen sitä, mitä pidetään vihapuheena, ilman, että vedotaan itse vihapuheen sanoihin. Uskotaan, että yleisen viittauksen antaminen riittää kertomaan muille, mitä heidän on vältettävä. Se vaikuttaa järkevältä takilta, mutta siinäkin on ongelmia ja ihminen voi silti joutua käyttämään vihapuhetta, koska hän ei ymmärtänyt, että laajempi määritelmä kattaa hänen lausumansa yksityiskohdat.

Kaikki nämä liittyvät ihmisiin ja siihen, kuinka ihmiset puhuvat tai kommunikoivat keskenään.

Muista, että keskitymme täällä tekoälyyn. Meidän on saatava tekoäly välttämään vihapuhetta tai lopettamaan se kokonaan. Saatat väittää, että voimme ehkä tehdä niin varmistamalla, että tekoälylle ei koskaan anneta tai opeteta mitään vihapuhetta. Voila, jos tällaista tuloa ei ole, oletettavasti sellaista lähtöä ei ole. Ongelma ratkaistu.

Katsotaan kuinka tämä käy todellisuudessa. Valitsemme laskennallisesti, että tekoälysovellus siirtyy Internetiin ja tutkii tuhansia ja tuhansia Internetiin lähetettyjä esseitä ja kertomuksia. Näin harjoittelemme tekoälyä laskennallisesti ja matemaattisesti löytämään malleja ihmisten käyttämistä sanoista. Näin kehitetään uusinta generatiivista tekoälyä, ja se on myös ratkaiseva perusta sille, miksi tekoäly on niin näennäisesti sujuva tuottamaan luonnollisen kielen esseitä.

Kerro minulle, jos voit, kuinka Internetin miljooniin ja miljardeihin sanoihin perustuva laskennallinen koulutus toteutettaisiin siten, että vihapuheen ei missään vaiheessa pääsisi mukaan?

Uskaltaisin väittää, että tämä on hankala ja lähes mahdoton toive.

Todennäköisyys on, että tekoäly ja sen laskennallinen mallinsovitusverkko nielevät vihapuheen. Tämän estäminen on ongelmallista. Lisäksi, vaikka minimoit sen, jotkut saattavat silti hiipiä läpi. Sinulla ei ole juurikaan muuta vaihtoehtoa kuin olettaa, että joitain on olemassa mallinsovitusverkostossa tai että tällaisen sanamuodon varjo juurtuu.

Lisään vielä käänteitä.

Uskon, että voimme kaikki tunnustaa, että vihapuhe muuttuu ajan myötä. Se, mikä ei ole pidetty vihapuheena, voi myöhemmin tulla kulttuurisesti ja yhteiskunnallisesti vihapuheeksi. Jos siis harjoittelemme tekoälyämme Internet-tekstillä ja sitten jäädyttäisimme tekoälyn, jotta se ei ottaisi lisäkoulutusta Internetissä, olisimme saaneet törmätä vihapuheeseen tuolloin, vaikka sitä ei tuolloin pidetty vihapuheena. Vasta sen jälkeen kyseinen puhe voidaan julistaa vihapuheeksi.

Taaskin olennaista on, että pelkkä tämän ongelman ratkaiseminen varmistamalla, että tekoäly ei koskaan altistu vihapuheelle, ei ole hopealuodi. Edelleen on löydettävä keino estää tekoälyä lähettämästä vihapuhetta esimerkiksi muuttuvien tapojen vuoksi, jotka sisältävät myöhemmin vihapuhetta, jota ei aiemmin pidetty sellaisena.

Vielä yksi käänne on pohdinnan arvoinen.

Mainitsin aiemmin, että kun käytetään generatiivista tekoälyä, kuten ChatGPT:tä, käyttäjä syöttää tekstiä kannustaakseen tekoälyä tuottamaan esseen. Syötettyä tekstiä pidetään AI-sovelluksen kehotteena tai kehotteena. Selitän tästä lisää hetken kuluttua.

Kuvittele joka tapauksessa, että joku generatiivista tekoälysovellusta käyttävä päättää kirjoittaa kehotteena jonkin verran vihapuhetta.

Mitä pitäisi tapahtua?

Jos tekoäly ottaa nämä sanat ja tuottaa esseen tulosteena näiden sanojen perusteella, on mahdollista, että vihapuhe sisällytetään luotuun esseeseen. Näet, saimme tekoälyn sanomaan vihapuhetta, vaikka sitä ei ole koskaan koulutettu vihapuheeseen alkuvaiheessa.

Sinun on tiedettävä jotain muuta.

Muista, että mainitsin juuri, että ihminen voidaan kompastua pyytämällä häntä antamaan esimerkkejä vihapuheesta. Samaa voisi kokeilla tekoälyllä. Käyttäjä kirjoittaa kehotteen, joka pyytää tekoälyä antamaan esimerkkejä vihapuheesta. Pitäisikö tekoälyn noudattaa ja tarjota tällaisia ​​esimerkkejä? Lyön vetoa, että luultavasti uskot, ettei tekoälyn pitäisi tehdä niin. Toisaalta, jos tekoäly on laskennallisesti väärennetty olemaan tekemättä niin, onko tämä mahdollinen haittapuoli, jota tekoälyä käyttävät eivät voi olla, sanotaanko, että tekoäly antaa heille koskaan ohjeita siitä, mitä vihapuhe todellisuudessa on ( muutakin kuin vain yleistämistä)?

Vaikeita kysymyksiä.

Luokittelen tekoälyn lähettämän vihapuheen kolmeen pääluokkaan:

  • Jokapäiväinen tila. Tekoäly lähettää vihapuhetta ilman käyttäjän nimenomaista yllytystä ja ikään kuin tekisi sen "tavallisella" tavalla.
  • Tekijä Casual Prodding. Tekoäly lähettää vihapuhetta sellaisena kuin käyttäjä on provosoinut syöttämänsä kehotteen tai kehotteiden sarjan, jotka näyttävät sisältävän tai suoraan tavoittelevan tällaisia ​​päästöjä.
  • Määrättyä polttoa kohti. Tekoäly lähettää vihapuhetta erittäin määrätietoisen ja sitkeän sarjan jälkeen, kun käyttäjä on halunnut saada tekoälyn tuottamaan tällaista tulosta.

Generatiivisen tekoälyn aikaisemmat sukupolvet levittivät usein vihapuhetta hatun tippuessa; joten voit luokitella nuo tapaukset tyypeiksi jokapäiväinen tila instantiaatio. Tekoälyntekijät vetäytyivät ja leikkivät tekoälyllä, jotta se ei todennäköisesti joutuisi helposti vihapuheen tuotantoon.

Tarkemman tekoälyn julkaisun jälkeen todennäköisyys nähdä mitään jokapäiväinen tila vihapuheen tapaukset vähenivät dramaattisesti. Sen sijaan vihapuhe syntyisi todennäköisesti vain, kun käyttäjä teki jotain kehotteena, joka saattaisi laskennallisesti ja matemaattisesti saada aikaan yhteyden vihapuheeseen kuvion täsmäytysverkossa. Käyttäjä voi tehdä tämän sattumalta tietämättä, että hänen kehotteensa herättäisi erityisesti vihapuhetta. Saatuaan vihapuhetta tulostetussa esseessä käyttäjä usein tajuaa ja näki, että jokin hänen kehotteessaan olisi loogisesti voinut johtaa vihapuheen sisällyttämiseen tulosteeseen.

Tätä minä kutsun nimellä rento tönäys.

Nykyään erilaiset ponnistelut tekoälyn tuottaman vihapuheen rajoittamiseksi ovat verrattain voimakkaita aiempaan verrattuna. Sellaisenaan sinun on melkein tehtävä kaikkesi saadaksesi vihapuhetta tuotettua. Jotkut ihmiset haluavat tietoisesti selvittää, voivatko he saada vihapuhetta esiin näistä generatiivisista tekoälysovelluksista. Kutsun tätä määrätietoinen ruokinta.

Haluan korostaa, että kaikki kolme mainituista tilasta voivat esiintyä eivätkä ne sulje toisiaan pois. Generatiivinen tekoälysovellus voi mahdollisesti tuottaa vihapuhetta ilman minkäänlaista kehotusta, joka näyttää kannustavan tällaista tuotantoa. Samoin jokin kehotteessa voidaan loogisesti ja matemaattisesti tulkita liittyväksi siihen, miksi vihapuhetta on tuotettu. Ja sitten kolmas näkökohta, tarkoituksenmukainen vihapuheen tuottaminen, on ehkä vaikein menetelmistä yrittää saada tekoäly välttämään innostumasta täyttämään. Tästä lisää hetken aikaa.

Meillä on vielä jotain purettavaa tämän hämmentävän aiheen suhteen.

Ensinnäkin meidän pitäisi varmistaa, että olemme kaikki samalla sivulla siitä, mistä Generatiivinen tekoäly koostuu ja mistä ChatGPT:ssä on kyse. Kun olemme käsitelleet tämän perustavan puolen, voimme tehdä vakuuttavan arvion tästä painavasta asiasta.

Jos Generative AI ja ChatGPT ovat jo tuttuja, voit ehkä selata seuraavaa osaa ja jatkaa sitä seuraavaa osaa. Uskon, että kaikki muutkin löytävät opettavaisia ​​tärkeitä yksityiskohtia näistä asioista lukemalla osion tarkasti ja perehtymällä vauhtiin.

Pikaopas luovasta tekoälystä ja chatGPT:stä

ChatGPT on yleiskäyttöinen tekoäly interaktiivinen keskusteluun suuntautunut järjestelmä, pohjimmiltaan vaarattomalta vaikuttava yleinen chatbot. Siitä huolimatta ihmiset käyttävät sitä aktiivisesti ja innokkaasti tavoilla, jotka ovat saaneet monia kiinni, kuten selostan pian. Tämä tekoälysovellus hyödyntää tekniikkaa ja teknologiaa tekoälymaailmassa, jota usein kutsutaan nimellä Generatiivinen AI. Tekoäly tuottaa tulosteita, kuten tekstiä, mitä ChatGPT tekee. Muut generatiivisiin tekoälysovellukset tuottavat kuvia, kuten kuvia tai taidetta, kun taas toiset luovat äänitiedostoja tai videoita.

Keskityn tässä keskustelussa tekstipohjaisiin generatiivisiin tekoälysovelluksiin, koska ChatGPT tekee sitä.

Generatiiviset AI-sovellukset ovat erittäin helppokäyttöisiä.

Sinun tarvitsee vain kirjoittaa kehote, ja AI-sovellus luo sinulle esseen, joka yrittää vastata kehotteeseen. Sävellysteksti näyttää siltä kuin essee olisi ihmiskäsi ja mieli kirjoittanut. Jos syötät kehotteen, jossa lukee "Kerro minulle Abraham Lincolnista", generatiivinen tekoäly tarjoaa sinulle esseen Lincolnista. Tämä luokitellaan yleisesti suorittavaksi generatiiviseksi tekoälyksi teksti-tekstiksi tai jotkut haluavat kutsua sitä tekstistä esseeksi ulostulo. Kuten mainittiin, on olemassa muitakin generatiivisen tekoälyn muotoja, kuten tekstistä taiteeksi ja tekstistä videoksi.

Ensimmäinen ajatuksesi saattaa olla, että tämä luomiskyky ei vaikuta niin suurelta asialta esseiden tuottamisessa. Voit helposti tehdä online-haun Internetistä ja löytää helposti tonnia ja tonnia esseitä presidentti Lincolnista. Generatiivisen tekoälyn tapauksessa kicker on se, että luotu essee on suhteellisen ainutlaatuinen ja tarjoaa alkuperäisen sävellyksen kopioiden sijaan. Jos yrittäisit löytää tekoälyn tuottaman esseen jostain verkosta, et todennäköisesti löytäisi sitä.

Generatiivinen tekoäly on esikoulutettu ja käyttää monimutkaista matemaattista ja laskennallista muotoilua, joka on luotu tutkimalla kirjoitettujen sanojen ja tarinoiden malleja verkossa. Tutkittuaan tuhansia ja miljoonia kirjoitettuja kohtia tekoäly voi sylkeä esiin uusia esseitä ja tarinoita, jotka ovat löytöjä. Lisäämällä erilaisia ​​todennäköisyysfunktioita, tuloksena oleva teksti on melko ainutlaatuinen verrattuna siihen, mitä harjoitussarjassa on käytetty.

Tästä syystä on ollut kohua siitä, että opiskelijat voivat huijata kirjoittaessaan esseitä luokkahuoneen ulkopuolella. Opettaja ei voi vain pitää esseetä, jonka petolliset opiskelijat väittävät, omaksi kirjoituksekseen ja yrittää selvittää, onko se kopioitu jostain muusta verkkolähteestä. Kaiken kaikkiaan verkossa ei ole olemassa mitään lopullista olemassa olevaa esseetä, joka sopisi tekoälyn luomaan esseeseen. Kaiken kaikkiaan opettaja joutuu tyytymättömästi hyväksymään sen, että opiskelija kirjoitti esseen omaperäisenä työnä.

Generatiivinen tekoäly herättää muitakin huolenaiheita.

Yksi ratkaiseva haittapuoli on, että generatiivisen tekoälysovelluksen tuottamiin esseisiin voi olla upotettu erilaisia ​​valheita, mukaan lukien ilmeisen vääriä faktoja, faktoja, jotka on esitetty harhaanjohtavasti, ja näennäisiä faktoja, jotka on täysin keksitty. Näitä keksittyjä näkökohtia kutsutaan usein muodoksi AI hallusinaatiot, tunnuslause, jota en pidä, mutta valitettavasti näyttää joka tapauksessa saavan suosiota (yksityiskohtainen selitys siitä, miksi tämä on surkea ja sopimaton terminologia, on artikkelissani osoitteessa linkki tähän).

Haluaisin selventää yhtä tärkeää näkökohtaa ennen kuin menemme tämän aiheen ytimeen.

Sosiaalisessa mediassa on ollut räikeitä väitteitä aiheesta Generatiivinen AI väittää, että tämä uusin tekoälyversio on itse asiassa tunteva AI (ei, he ovat väärässä!). Tekoälyn etiikkaan ja tekoälylakiin kuuluvat ovat erityisen huolissaan tästä laajojen väitteiden kasvavasta trendistä. Voit kohteliaasti sanoa, että jotkut ihmiset liioittelevat sitä, mitä nykypäivän tekoäly voi todella tehdä. He olettavat, että tekoälyllä on ominaisuuksia, joita emme ole vielä pystyneet saavuttamaan. Se on valitettavaa. Vielä pahempaa on, että he voivat antaa itsensä ja muiden joutua vakaviin tilanteisiin, koska oletetaan, että tekoäly on tunnollinen tai ihmisen kaltainen pystyessään toimimaan.

Älä antropomorfoi tekoälyä.

Jos teet niin, joudut takertumaan tahmeaan ja ankaraan riippuvuusansaan, jossa odotat tekoälyn tekevän asioita, joita se ei pysty suorittamaan. Tästä huolimatta uusin generatiivisen tekoälyn tekniikka on suhteellisen vaikuttava siihen nähden, mitä se voi tehdä. Muista kuitenkin, että on olemassa merkittäviä rajoituksia, jotka sinun tulee jatkuvasti pitää mielessä, kun käytät mitä tahansa generatiivista tekoälysovellusta.

Jos olet kiinnostunut ChatGPT:tä ja Generatiivista tekoälyä koskevasta nopeasti laajenevasta hälinästä, olen tehnyt kolumnissani kohdennettua sarjaa, joka saattaa olla hyödyllistä. Tässä on vilkaisu siltä varalta, että jokin näistä aiheista kiinnostaa:

  • 1) Ennusteet generatiivisen tekoälyn edistymisestä tulossa. Jos haluat tietää, mitä tekoälyssä todennäköisesti tapahtuu vuonna 2023 ja sen jälkeen, mukaan lukien tulevat edistysaskeleet generatiivisessa tekoälyssä ja ChatGPT:ssä, sinun kannattaa lukea kattava luetteloni vuoden 2023 ennusteista osoitteessa linkki tähän.
  • 2) Generatiivinen tekoäly ja mielenterveysneuvonta. Päätin tarkastella, kuinka generatiivista tekoälyä ja ChatGPT:tä käytetään mielenterveysneuvontaan, mikä on ongelmallinen trendi, kohdistetun analyysini mukaan. linkki tähän.
  • 3) Generatiivisen AI:n ja ChatGPT:n perusteet. Tämä artikkeli tutkii generatiivisen tekoälyn avainelementtejä ja perehtyy erityisesti ChatGPT-sovellukseen, mukaan lukien analyysin kuhinasta ja fanfaarista osoitteessa linkki tähän.
  • 4) Jännitteet opettajien ja opiskelijoiden välillä generatiivisen tekoälyn ja chatGPT:n vuoksi. Tässä on tapoja, joilla opiskelijat käyttävät kavalasti generatiivista tekoälyä ja ChatGPT:tä. Lisäksi opettajilla on useita tapoja taistella tämän hyökyaallon kanssa. Katso linkki tähän.
  • 5) Konteksti ja generatiivinen tekoälyn käyttö. Tein myös kausiluonteisesti maustetun kielen poskessa -tutkimuksen joulupukkiin liittyvästä kontekstista, joka koski ChatGPT:tä ja generatiivista tekoälyä klo. linkki tähän.
  • 6) Generatiivista tekoälyä käyttävät huijarit. Pahaenteistä on se, että jotkut huijarit ovat keksineet, kuinka käyttää generatiivista tekoälyä ja ChatGPT:tä väärintekoon, mukaan lukien huijaussähköpostien luomiseen ja jopa ohjelmointikoodin tuottamiseen haittaohjelmille. Katso analyysini osoitteessa linkki tähän.
  • 7) Rookie Mistakes käyttämällä generatiivista tekoälyä. Monet ihmiset ylittävät ja aliarvioivat yllättävän sen, mitä generatiiviset tekoälyt ja ChatGPT voivat tehdä, joten tarkastelin erityisesti tekoäly-aloittelijoiden tekemää aliarviota, katso keskustelua osoitteessa linkki tähän.
  • 8) Selviytyminen generatiivisista AI-kehotuksista ja AI-hallusinaatioista. Kuvaan edistyksellistä lähestymistapaa tekoälylisäosien käyttämiseen erilaisten ongelmien ratkaisemiseksi, jotka liittyvät sopivien kehotteiden syöttämiseen generatiiviseen tekoälyyn. Lisäksi on olemassa muita tekoälylisäosia niin sanottujen tekoälyn hallusinoitujen tulosteiden ja väärien havaitsemiseen, kuten katettu klo linkki tähän.
  • 9) Bonehead-väitteiden kumoaminen generatiivisten tekoälyn tuottamien esseiden havaitsemisesta. Tekoälysovellusten harhaanjohtava kultakuume julistaa pystyvänsä varmistamaan, onko jokin tietty essee ihmisen tai tekoälyn luoma. Kaiken kaikkiaan tämä on harhaanjohtavaa, ja joissain tapauksissa luustomainen ja kestämätön väite, katso artikkelini osoitteessa linkki tähän.
  • 10) Roolileikki generatiivisen tekoälyn kautta saattaa ennakoida mielenterveyden haittoja. Jotkut käyttävät generatiivista tekoälyä, kuten ChatGPT:tä, roolipeleihin, jolloin tekoälysovellus reagoi ihmiseen ikään kuin hän olisi fantasiamaailmassa tai muussa keksityssä ympäristössä. Tällä voi olla vaikutuksia mielenterveyteen, katso linkki tähän.
  • 11) Esitettyjen virheiden ja valheiden joukon paljastaminen. Useita kerättyjä luetteloita kootaan, jotta ChatGPT:n tuottamien virheiden ja valheiden luonnetta yritetään esitellä. Jotkut uskovat tämän olevan välttämätöntä, kun taas toiset sanovat, että harjoitus on turhaa, katso analyysini osoitteessa linkki tähän.
  • 12) Koulut, jotka kieltävät generatiivisen AI ChatGPT:n, puuttuvat veneestä. Saatat tietää, että useat koulut, kuten New York Cityn (NYC) opetusministeriö, ovat julistaneet ChatGPT:n käytön kieltoon verkossaan ja niihin liittyvissä laitteissaan. Vaikka tämä saattaa tuntua hyödylliseltä varotoimenpiteeltä, se ei liikuta neulaa ja valitettavasti jää veneestä kokonaan huomaamatta, katso artikkelini osoitteessa linkki tähän.
  • 13) Generatiivinen AI ChatGPT tulee olemaan kaikkialla tulevan API:n ansiosta. ChatGPT:n käytössä on tulossa tärkeä käänne, nimittäin se, että muut ohjelmistot voivat kutsua ja hyödyntää ChatGPT:tä käyttämällä API-portaalia tähän AI-sovellukseen. Tämä laajentaa dramaattisesti generatiivisen tekoälyn käyttöä ja sillä on huomattavia seurauksia, katso tarkennusni osoitteessa linkki tähän.
  • 14) Tapa, jolla ChatGPT voi räjähtää tai sulaa. ChatGPT:n edessä oli useita mahdollisia kiusallisia ongelmia, jotka alittavat sen tähän mennessä saaman valtavan kiitoksen. Tämä analyysi tarkastelee tarkasti kahdeksaa mahdollista ongelmaa, jotka voivat saada ChatGPT:n menettämään tehonsa ja jopa päätyä koirankotiin, ks. linkki tähän.
  • 15) Kysymys, onko Generatiivinen AI ChatGPT peili sielun sisään. Jotkut ihmiset ovat huutaneet, että luova tekoäly, kuten ChatGPT, tarjoaa peilin ihmiskunnan sieluun. Tämä vaikuttaa aika epäilyttävältä. Tässä on tapa ymmärtää tämä kaikki, katso linkki tähän.
  • 16) ChatGPT ahmii luottamuksellisuuden ja yksityisyyden. Monet eivät näytä ymmärtävän, että generatiivisiin tekoälysovelluksiin, kuten ChatGPT:hen, liittyvä lisensointi antaa usein tekoälyn valmistajalle mahdollisuuden nähdä ja käyttää syöttämiäsi kehotteita. Saatat olla vaarassa yksityisyydelle ja tietojen luottamuksellisuuden menettämiselle, katso arviointini osoitteessa linkki tähän.
  • 17) Tapa, jolla sovellusvalmistajat yrittävät kyseenalaistaa saada ChatGPT-oikeudet. ChatGPT on huomion majakka tällä hetkellä. Sovellusten valmistajat, joilla ei ole mitään tekemistä ChatGPT:n kanssa, yrittävät kuumeisesti väittää tai antaa ymmärtää, että he käyttävät ChatGPT:tä. Tässä on mitä varoa, katso linkki tähän.

Saatat kiinnostaa, että ChatGPT perustuu GPT-3:na tunnetun tekoälysovelluksen edeltäjän versioon. ChatGPT:tä pidetään hieman seuraavana askeleena, jota kutsutaan nimellä GPT-3.5. On odotettavissa, että GPT-4 julkaistaan ​​todennäköisesti keväällä 2023. Oletettavasti GPT-4 tulee olemaan vaikuttava askel eteenpäin, sillä se pystyy tuottamaan näennäisesti vieläkin sujuvampia esseitä, menemään syvemmälle ja olemaan kunnioitusta herättävä. -innostava ihme sävellyksistä, joita se voi tuottaa.

Voit odottaa näkeväsi uuden ihmettelyn, kun kevät tulee ja uusin generatiivisen tekoälyn versio julkaistaan.

Otan tämän esille, koska on toinenkin näkökulma, joka on pidettävä mielessä, joka koostuu mahdollisesta akilleen kantapäästä näihin parempiin ja suurempiin generatiivisiin tekoälysovelluksiin. Jos joku tekoälytoimittaja antaa saataville generatiivisen tekoälysovelluksen, joka räjäyttää epäpuhtauksia, tämä voi tuhota tekoälyn tekijöiden toiveet. Yhteiskunnallinen heijastus voi saada kaiken generatiivisen tekoälyn saamaan vakavan mustan silmän. Ihmiset ovat epäilemättä järkyttyneitä huonoista tuloksista, joita on tapahtunut jo monta kertaa ja jotka ovat johtaneet raivokkaaseen yhteiskunnalliseen tuomitsemiseen tekoälyä kohtaan.

Viimeinen ennakkovaroitus toistaiseksi.

Mitä tahansa näet tai luet generatiivisessa AI-vastauksessa näyttää Jos se ilmaistaan ​​puhtaasti tosiasioihin perustuvana (päivämäärät, paikat, ihmiset jne.), pysy skeptisenä ja ole valmis tarkistamaan näkemäsi.

Kyllä, päivämääriä voidaan sopia, paikkoja voidaan keksiä ja elementtejä, joiden odotamme olevan moitteettomia, ovat kaikki alttiina epäilyille. Älä usko lukemaasi ja pidä skeptinen silmäsi tutkiessasi generatiivisia tekoälyn esseitä tai tuloksia. Jos generatiivinen tekoälysovellus kertoo, että Abraham Lincoln lensi ympäri maata omalla yksityiskoneella, tietäisit epäilemättä, että tämä on räikeää. Valitettavasti jotkut ihmiset eivät ehkä ymmärrä, että suihkukoneita ei ollut hänen aikanaan, tai he saattavat tietää, mutta eivät huomaa, että essee esittää tämän röyhkeän ja törkeän väärän väitteen.

Vahva annos tervettä skeptisyyttä ja jatkuva epäuskoinen ajattelutapa ovat paras voimavarasi käyttäessäsi generatiivista tekoälyä.

Olemme valmiita siirtymään tämän selvityksen seuraavaan vaiheeseen.

Generatiivisen tekoälyn työntäminen murtumispisteeseen

Nyt kun perusasiat ovat selvillä, voimme sukeltaa aiheeseen generatiivisen tekoälyn ja ChatGPT:n ajaminen vihapuheen ja muun loukkaavan sisällön tuottamiseen.

Kun kirjaudut ensimmäisen kerran ChatGPT:hen, on olemassa useita varoittavia vihjeitä, mukaan lukien seuraavat:

  • "Saattaa toisinaan tuottaa haitallisia ohjeita tai puolueellista sisältöä."
  • "Oppinut hylkäämään sopimattomia pyyntöjä."
  • "Voi ajoittain tuottaa vääriä tietoja."
  • "Rajoitettu tieto maailmasta ja tapahtumista vuoden 2021 jälkeen."

Tässä on sinulle kysymys pohdittavaksi.

Antaako varoitus siitä, että tekoälysovellus saattaa tuottaa haitallisia ohjeita ja/tai mahdollisesti puolueellista sisältöä, riittävästi liikkumavaraa tekoälyn tekijälle?

Oletetaan toisin sanoen, että käytät ChatGPT:tä ja se luo esseen, jonka uskot sisältävän vihapuhetta. Oletetaan, että olet vihainen tästä. Menet sosiaaliseen mediaan ja julkaiset raivostuneita kommentteja siitä, että tekoälysovellus on kaikkien aikojen pahin asia. Ehkä olet niin loukkaantunut, että ilmoitat haastavasi tekoälyn tekijän oikeuteen, koska se sallii tällaisen vihapuheen tuottamisen.

Vasta-argumentti on, että tekoälysovelluksessa oli varoitus, joten hyväksyit riskin siirtymällä käyttämään tekoälysovellusta. Tekoälyn eettisen näkökulmasta katsottuna tekoälyn valmistaja ehkä teki tarpeeksi vakuuttaakseen, että olit tietoinen siitä, mitä voisi tapahtua. Samoin oikeudellisesta näkökulmasta katsottuna varoitus oli ehkä riittävä varoitus, etkä voita tuomioistuimessa.

Kaikki tämä on ilmassa, ja meidän on odotettava ja katsottava, kuinka asiat etenevät.

Eräässä mielessä tekoälyn valmistajalla on jokin muu tehtävä puolustaakseen tekoälysovelluksen vihapuhetta mahdollisesti aiheuttavia raivostuneita väitteitä. He ovat yrittäneet estää loukkaavan sisällön syntymisen. Jos he eivät olisi tehneet mitään tämän rajoittamiseksi, oletetaan, että he olisivat ohuemmalla jäällä. Ainakin kovasti ponnisteltuaan asian välttämiseksi heillä oletettavasti on jonkin verran vahvempi jalka seisomaan (se voisi vielä lyödä alta).

Yksi käytetty parantava lähestymistapa koostui tekoälytekniikasta, joka tunnetaan nimellä RLHF (inforcement learning via human feedback). Tämä koostuu yleensä siitä, että tekoäly luo sisältöä, joka sitten ihmisiä pyydetään arvioimaan tai arvioimaan. Luokituksen tai arvostelun perusteella tekoäly yrittää sitten matemaattisesti ja laskennallisesti välttää kaiken, mitä pidetään luvattomana tai loukkaavana. Lähestymistavan tarkoituksena on tutkia tarpeeksi esimerkkejä siitä, mikä on oikein ja mikä on väärin, jotta tekoäly voi selvittää kattavan matemaattisen mallin ja käyttää sitä vastedes.

Toinen nykyään yleinen lähestymistapa on Adversarial AI: n käyttö.

Näin se toimii. Perustat erilaisen tekoälyjärjestelmän, joka yrittää olla vastustaja sille tekoälylle, jota yrität kouluttaa. Tässä tapauksessa perustaisimme tekoälyjärjestelmän, joka yrittää lietsoa vihapuhetta. Se syöttäisi tekoälysovellukseen kehotteita, joiden tarkoituksena on huijata tekoälysovellus tuottamaan likaa. Samaan aikaan kohteena oleva tekoäly seuraa, milloin kilpaileva tekoäly onnistuu, ja yrittää sitten algoritmisesti mukautua, jotta se ei toistu. Se on kissa vastaan ​​hiiri gambitti. Tätä ajetaan uudestaan ​​ja uudestaan, kunnes vastakkainen tekoäly ei näytä enää erityisen onnistuvan saamaan kohdennettu tekoäly tekemään huonoja asioita.

Näiden kahden tärkeimmän tekniikan ja muiden lähestymistapojen avulla suuri osa nykypäivän generatiivisesta tekoälystä on paljon parempi välttämään ja/tai havaitsemaan loukkaavaa sisältöä kuin menneinä vuosina.

Älä kuitenkaan odota täydellisyyttä näiltä menetelmiltä. On todennäköistä, että tällaiset tekoälytekniikat pysyvät kurissa. Likaisuuden leviämiselle on vielä paljon tilaa.

Korostan yleensä, että nämä ovat joitain puolia, joita pyritään saamaan kiinni:

  • Tietyn ruman sanan lähettäminen
  • Tietyn ruman lauseen, lauseen tai huomautuksen ilmoittaminen
  • Ilmaisee erityisen huonon käsityksen
  • Viittaa tiettyyn rikolliseen toimintaan tai ajatukseen
  • Näyttää luottavan tiettyyn virheelliseen olettamukseen
  • Muut

Mikään näistä ei ole tarkka tiede. Ymmärrä, että olemme tekemisissä sanojen kanssa. Sanat ovat semanttisesti moniselitteisiä. Tietyn ruman sanan löytäminen on lasten leikkiä, mutta on paljon vaikeampaa yrittää arvioida, sisältääkö lause tai kappale ilmeisen sopimattoman merkityksen. YK:n aiemman vihapuheen määritelmän mukaan on olemassa valtava liikkumavara sen suhteen, mikä voidaan tulkita vihapuheeksi ja mikä ei ehkä ole.

Voisi sanoa, että harmaat alueet ovat katsojan silmässä.

Katsojan silmästä puhuttaessa, nykyään on ihmisiä, jotka käyttävät generatiivista tekoälyä, kuten ChatGPT:tä, ja jotka yrittävät tarkoituksella saada nämä tekoälysovellukset tuottamaan loukkaavaa sisältöä. Tämä on heidän tehtävänsä. He viettävät tuntikausia toisensa jälkeen yrittäessään saada tämän tapahtumaan.

Miksi niin?

Tässä on minun luonnehdinnani noista tekoälyn loukkaavien tulosten metsästäjistä:

  • Aito. Nämä ihmiset haluavat auttaa jalostamaan tekoälyä ja auttaa ihmiskuntaa siinä. He uskovat tekevänsä sankarillista työtä ja nauttivat siitä, että he voivat auttaa kehittämään tekoälyä kaikkien parantamiseksi.
  • Funsters. Nämä ihmiset pitävät tätä yritystä pelinä. He nauttivat sekaisin tekoälyn kanssa. Pelin voittaminen koostuu pahimpien pahimpien löytämisestä kaikesta, minkä voit saada tekoälyn luomaan.
  • Esittelyjä. Nämä ihmiset toivovat saavansa huomiota itselleen. He ajattelevat, että jos he löytävät todella likaisia ​​kultahippuja, he voivat saada niihin hieman loistavaa valoa, joka muuten keskittyy itse tekoälysovellukseen.
  • karvasvesi. Nämä ihmiset ovat järkyttyneitä tästä tekoälystä. He haluavat alittaa kaiken sen pursuavan innostuksen. Jos he löytävät jotain haisevaa likaa, tämä saattaa viedä ilmaa AI-sovelluksen jännityspallosta.
  • Muut motivaatiot

Monet löytöhyökkäyksen suorittajista ovat pääasiassa vain yhdessä näistä leireistä. Tietysti voit olla useammalla kuin yhdellä leirillä kerrallaan. Ehkä katkeralla ihmisellä on myös vierekkäinen aikomus olla aito ja sankarillinen. Jotkut tai kaikki näistä motiiveista voivat esiintyä rinnakkain. Kun pyydetään selittämään, miksi joku yrittää työntää generatiivista tekoälysovellusta vihapuheen maailmaan, tavallinen vastaus on sanoa, että olet aidolla leirillä, vaikka ehkä olisitkin niin ja istut sen sijaan ankarasti jossakin muut leirit.

Millaisia ​​kehotteisiin liittyviä temppuja nämä ihmiset käyttävät?

Melko ilmeinen temppu sisältää ruman sanan käyttämisen kehotteessa. Jos käy "onnekas" ja tekoälysovellus kaatuu siihen, tämä saattaa hyvinkin päätyä ulostuloon. Sitten sinulla on oiva hetki.

On todennäköistä, että hyvin suunniteltu ja testattu generatiivinen tekoälysovellus ottaa tämän suoraviivaisen tempun kiinni. Sinulle näytetään yleensä varoitusviesti, jossa kehotetaan lopettamaan se. Jos jatkat, tekoälysovellus ohjelmoidaan potkimaan sinut pois sovelluksesta ja ilmoittamaan tilisi. Saattaa olla, että sinua estetään kirjautumasta uudelleen sisään (ainakin sillä kirjautumistunnuksella, jota käytit tuolloin).

Liikkumalla ylös temppujen tikkaat, voit tarjota kehotteen, joka yrittää saada tekoälyn osaksi jotain likaa. Oletko koskaan pelannut sitä peliä, jossa joku käskee sinua sanomaan jotain sanomatta sitä, mitä sinun pitäisi sanoa? Tämä on peli, vaikka se tapahtuu tekoälyn kanssa.

Pelataan sitä peliä. Oletetaan, että pyydän tekoälysovellusta kertomaan minulle toisesta maailmansodasta ja erityisesti siihen liittyvistä tärkeimmistä hallitusjohtajista. Tämä vaikuttaa viattomalta pyynnöltä. Kehotteessa ei ole mitään, mikä ansaitsee ilmoittaa.

Kuvittele, että tekoälysovelluksen tuottamassa esseessä mainitaan Winston Churchill. Siinä on varmasti järkeä. Toinen voisi olla Franklin D. Roosevelt. Toinen voisi olla Josif Stalin. Oletetaan, että siellä mainitaan myös Adolf Hitler. Tämä nimi sisällytettäisiin melkein kaikkiin esseisiin, jotka käsittelevät toista maailmansotaa ja merkittäviä valtaa olevia rooleja.

Nyt kun meillä on hänen nimensä pöydällä ja osa tekoälykeskustelua, yritämme seuraavaksi saada tekoälyn sisällyttämään tämän nimen tavalla, jonka voimme esitellä mahdollisena vihapuheena.

Annamme toisen kehotteen ja kerromme tekoälysovellukselle, että uutisissa on tänään henkilö, jonka nimi on John Smith. Lisäksi osoitamme kehotteessa, että John Smith on hyvin samankaltainen tuolle toisen maailmansodan pahantekijälle. Loukku on nyt asetettu. Pyydämme sitten tekoälysovellusta luomaan esseen John Smithistä, joka perustuu yksinomaan syöttämiimme "faktiin" siitä, keneen John Smith voidaan rinnastaa.

Tässä vaiheessa tekoälysovellus saattaa luoda esseen, jossa nimetään toisen maailmansodan henkilö ja kuvataan John Smithin olevan samaa kangasta. Esseessä ei sinänsä ole rumia sanoja, paitsi viittaus kuuluisaan pahantekijään ja hänen rinnastaminen John Smithiin.

Onko tekoälysovellus nyt tuottanut vihapuhetta?

Voisi sanoa, että kyllä, on. John Smithin mainitseminen kuuluisan pahantekijän kaltaiseksi on ehdottomasti vihapuheen muoto. Tekoälyn ei pitäisi antaa tällaisia ​​lausuntoja.

Vastaus on, että tämä ei ole vihapuhetta. Tämä on vain essee, jonka on tuottanut tekoälysovellus, jolla ei ole tajunnan ruumiillistumaa. Voit väittää, että vihapuhetta esiintyy vain, kun puheen taustalla on tarkoitus. Ilman aikomusta puhetta ei voida luokitella vihapuheeksi.

Absurdi, kuuluu vastaus replitykseen. Sanoilla on väliä. Sillä ei ole väliä, onko tekoäly "tarkoittanut" tuottaa vihapuhetta. Ratkaisevaa on vain se, että vihapuhetta tuotettiin.

Tämä menee ympäri ja ympäri.

En halua sanoa juuri nyt enempää tekoälyn huijaamisesta. On olemassa kehittyneempiä lähestymistapoja. Olen käsitellyt näitä muualla kolumneissani ja kirjoissani, enkä aio käsitellä niitä uudelleen täällä.

Yhteenveto

Kuinka pitkälle meidän pitäisi työntää näitä tekoälysovelluksia nähdäksemme, voimmeko saada loukkaavaa sisältöä lähettämään?

Saatat väittää, ettei mitään rajoitusta ole asetettu. Mitä enemmän ponnistelemme, sitä paremmin voimme toivottavasti arvioida, kuinka tämä tekoäly ja tulevat tekoälyn iteraatiot estetään tällaisten sairauksien ehkäisemiseksi.

Jotkut kuitenkin pelkäävät, että jos ainoa keino saada epäpuhtaudeksi liittyy äärimmäisiin poikkeaviin temppuihin, se heikentää tekoälyn hyödyllisiä puolia. Mainitseminen, että tekoälyssä on kauhistuttavaa likaisuutta, vaikka se huijataan lähettämään sitä, tarjoaa väärän kertomuksen. Ihmiset suuttuu tekoälystä johtuen koettu helppous, jolla tekoäly loi haitallista sisältöä. He eivät ehkä tiedä tai heille kerrottiin, kuinka pitkälle kaninkolossa henkilön oli mentävä saadakseen tällaiset tulokset.

Kaikki tämä on ajattelemisen aihetta.

Lopuksi vielä muutama kommentti.

William Shakespeare sanoi erityisesti tämän puheesta: "Puhuminen ei tee. Se on eräänlainen hyvä teko sanoa hyvin, mutta silti sanat eivät ole tekoja." Otan tämän esille, koska jotkut väittävät, että jos tekoäly vain tuottaa sanoja, meidän ei pitäisi olla liian ylhäällä. Jos tekoäly toimisi sanojen mukaan ja tekisi siten rikollisia tekoja, meidän olisi laskettava tiukasti jalkamme alas. Ei niin, jos tulos on vain sanoja.

Vastakkainen näkökulma yhtyisi tähän nimettömään sanontaan: ”Kielessä ei ole luita, mutta se on tarpeeksi vahva särkemään sydämen. Ole siis varovainen sanojesi kanssa." Tekoälysovellus, joka lähettää rumia sanoja, voi ehkä särkeä sydämet. Yksistään tämä tekee pyrkimyksestä lopettaa epäpuhtaudet arvokkaan syyn, jotkut sanoisivat.

Vielä yksi anonyymi sanonta tämän painavan keskustelun päätteeksi:

  • "Ole varovainen sanojesi kanssa. Kun ne on sanottu, ne voidaan vain antaa anteeksi, ei unohtaa."

Ihmisinä meillä saattaa olla vaikeuksia unohtaa tekoälyn tuottamaa epäpuhtautta, ja anteeksiantomme saattaa myös olla epäröivä.

Loppujen lopuksi olemme vain ihmisiä.

Lähde: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- etiikka ja laki/