Tekoälyn etiikka ja tekoälyn aiheuttama psykologinen rokotus auttaa ihmisiä käsittelemään disinformaatiota

Mitä aiomme tehdä massiiviselle disinformaation ja väärän tiedon ylellytykselle?

Kaikki pahenee selvästi päivä päivältä.

Ehkä tekoäly (AI) voi tulla apuumme. Kyllä, se on oikein, voimme ehkä hyödyntää tekoälyn hyödyllisiä käyttötapoja selviytyäksemme jatkuvasta disinformaation ja väärän tiedon tsunamistamme. Voimme olla viisasta yrittää tehdä niin. Kaikki mahdolliset ratkaisut näyttävät etsimisen arvoisilta.

Sivuhuomautuksena haluaisin heti tunnustaa ja huomauttaa, että tekoäly tulee epäilemättä tekemään Myös olla myös osa ongelmaa. Ei ole epäilystäkään siitä, että ihmiset voivat helposti hyödyntää tekoälyä tuottaakseen disinformaatiota ja väärää tietoa. Lisäksi tekoälyä voidaan salakavalasti käyttää saamaan disinformaatio ja väärä tieto näyttämään hämmästyttävän päteviltä ja huijata ihmiset uskomaan, että esitetyt tiedot ovat houkuttelevan tarkkoja ja tosiasioita. Äärimmäisen surullinen puoli siitä, mitä tekoäly tuo pöytään. Palaamme tähän ongelmaan tämän keskustelun lopussa.

Pue nyt toistaiseksi hymynaamamme ja tutkitaan kuinka tekoäly on hyödyllinen disinformaation ja väärän tiedon tuomisessa voimakkaille polvilleen. Yksi tärkeä pohjavirta on, että kaikki tämä yhdistyy tekoälyn etiikan tärkeisiin osiin. Tekoälyn etiikkaa ja eettistä tekoälyä käsittelevä kolumni on jatkuva ja laaja, mukaan lukien linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Harkitse näitä kulmakivitapoja, joilla tekoäly voi olla erityisen hyödyllinen liittolainen taistelussa disinformaatiota ja väärää tietoa vastaan:

  • Pysähdy Get-Goon: Tekoälyä voidaan käyttää havaitsemaan ja yrittämään poistaa disinformaatiota ja väärää tietoa ennen kuin ne paljastuvat
  • Suodata ennen nähty: Tekoälyä voidaan käyttää suodattamaan disinformaatiota ja väärää tietoa, jotta sinun ei tarvitse huolehtia sen näkemisestä
  • Valmistaudu olemaan immuuni: Tekoälyä voidaan käyttää vahvistamaan valmiuttasi ja kykyäsi taistella disinformaation ja väärän tiedon kanssa (jota tunnetaan jonkin verran muodollisesti eräänlaisena psykologisena rokotuksena)
  • Muut

Ensimmäinen lueteltu kohta tarkoittaa sitä, että disinformaation ja väärän tiedon levittäminen pyritään lopettamaan mahdollisimman aikaisessa vaiheessa, ennen kuin sisältö pääsee maailmaan.

Tämä on erittäin ongelmallinen lähestymistapa. Jotkut väittävät äänekkäästi, että tämä saattaa olla Big Brother -yritys tukahduttaa sananvapaus. Kuinka pitkälle tämä tekoäly voisi mennä? Voisiko se estää ihmisiä ilmaisemasta mielipiteitään vapaasti? Tästä voi aavemattomasti tulla tekoälyn liukas rinne, josta tulee lopulta pahin painajainen pahoista seurauksista, jotka viattomasti alkoivat parhaista aikeista.

Olen varma, että saat kuvan.

Toinen luetelmakohta on hieman maltillisempi ja ehdottaa, että voisimme käyttää tekoälyä sisällön suodattamiseen.

Sinulla saattaa olla tekoälysuodatinbotti, joka skannaa kaikki saapuvat tietosyötteet eri uutisista ja muista lähteistä. Tekoäly on räätälöity saamaan kiinni henkilökohtaisten kriteeriesi mukaisen disinformaation tai väärän tiedon. Näin ollen tällaisessa tilanteessa kyseessä ei ole Big Brother -sensuuritilanne. Sinä hallitset tekoälyä ja sitä, kuinka se suodattaa todellista tietopostilaatikkoasi puolestasi.

Kuulostaa aika hyvältä.

On kuitenkin joitakin huomionarvoisia huolenaiheita.

Olemme esimerkiksi jo nyt suuresti polarisoituneita näkemyksissämme, ja tämä tekoälyn käyttö saattaa tehdä polarisaatiosta syvemmän ja tummemman. Kuvittele, että tällä liukkaalla tekoälyllä, joka toimii taukoamatta 24 × 7, sinun ei koskaan tarvitse nähdä ripauskaan tietoa, jonka olet luokitellut mahdollisesti disinformaatioksi ja vääräksi informaatioksi. Polarisoitunut näkökulmasi pysyy nyt lähes taatusti ennallaan. Koko päivän ja aina kun haluat katsoa huomiotasi odottavaa tietoa, se on aina täysin esivalittu, eikä mahdollisuutta vilkaista niin kutsuttua disinformaatiota ja väärää tietoa.

Sanon, että disinformaatiota ja väärää tietoa voi olla niin sanottu koska on valtava määrä kiistaa siitä, mikä todellisuudessa on disinformaatiota ja väärää tietoa. Jotkut asiantuntijat väittävät, että on olemassa ehdoton perusta sen määrittämiselle, mikä on disinformaatiota ja mikä väärää tietoa. On oikeaa ja väärää. Kaikki voidaan laskea erehtymättä, että jokin on joko disinformaatiota tai väärää tietoa.

Kaikki eivät näe asioita niin yksiselitteisinä.

Sananlaskujen päälle-tai poissulkevan toisensa poissulkevan kaksijakoisen vastakohdan sanotaan olevan harhaanjohtava mielentila. Yhden henkilön disinformaatiota ei voida pitää disinformaationa toiselle henkilölle. Samoin väärästä tiedosta. Väite on, että disinformaatio ja väärä tieto vaihtelevat luonteeltaan ja laajuudeltaan. Kaiken tiedon lopullisen luokittelun yrittäminen yhteen tai toiseen pinoon on paljon vaikeampaa kuin käden heiluttaminen antaa ymmärtää.

Pääasia on, että toisessa kohdassa, joka koskee tekoälyn käyttöä suodatusmekanismina, on kompromisseja. Ei ole epäilystäkään siitä, että tekoälyä käytetään yhä enemmän tähän käyttöön. Samalla meidän on oltava tietoisia haasteista, joita tällainen tekoäly tuo esille. Tekoäly disinformaation ja väärän tiedon suodattimena ei ole mikään hopealuoti tai slam dunk.

Tämä vie meidät kolmanteen kohtaan, nimittäin mahdollisuuteen käyttää tekoälyä ihmisten parantamiseksi käsittelemään disinformaatiota ja väärää tietoa.

Epäilen, oletko luultavasti kuullut paljon tästä kolmannesta keinosta käyttää tekoälyä tässä yhteydessä. Se on vasta alkamassa näkyä. Olet nyt jonkin asian kärjessä, mikä todennäköisesti kasvaa ja otetaan vähitellen käyttöön. Muista kuitenkin, että tämän suosion kasvaessa kiista siitä, onko se sopiva lähestymistapa, tulee myös erittäin näkyväksi.

Osa ongelmaa on se, että tekoälyä käytetään jossain määrin siihen, mitä jotkut halventavalla tavalla kutsuvat pelaamassa mielipelejä ihmisten kanssa.

Se näyttää pahaenteiseltä.

Tämä vie meidät myös tekoälyn etiikkaan.

Kaikki tämä liittyy myös hillitysti esiin nouseviin huolenaiheisiin nykypäivän tekoälystä ja erityisesti koneoppimisen ja syväoppimisen käytöstä teknologian muotoina ja sen hyödyntämisestä. Näettekö, ML/DL:llä on käyttötarkoituksia, joihin yleensä liittyy se, että suuren yleisön antropomorfoi tekoäly, uskoen tai olettaa, että ML/DL on joko tuntevaa tekoälyä tai lähellä sitä (se ei ole). Lisäksi ML/DL voi sisältää laskennallisen mallin täsmäytyksen näkökohtia, jotka ovat ei-toivottuja tai täysin sopimattomia tai laittomia eettisestä tai laillisesta näkökulmasta.

Saattaa olla hyödyllistä ensin selventää, mitä tarkoitan viittaamalla tekoälyyn yleisesti, ja antaa myös lyhyt yleiskatsaus koneoppimiseen ja syväoppimiseen. On paljon hämmennystä siitä, mitä tekoäly tarkoittaa. Haluaisin myös esitellä teille tekoälyn etiikan ohjeet, jotka ovat erityisen tärkeitä tämän keskustelun loppuosassa.

Tiedon ilmoittaminen tekoälystä

Varmistetaan, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä.

Meillä ei ole tätä.

Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistivan tekoälyn tai syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä nimellä The Singularity, katso artikkelini osoitteessa linkki tähän).

Ymmärrä, että tämän päivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista ja syväoppimista, jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

Osa ongelmaa on taipumuksemme antropomorfoida tietokoneita ja erityisesti tekoälyä. Kun tietokonejärjestelmä tai tekoäly näyttää toimivan tavoilla, jotka yhdistämme ihmisten käyttäytymiseen, on lähes ylivoimainen tarve liittää järjestelmään inhimillisiä ominaisuuksia. Se on yleinen henkinen ansa, joka voi tarttua jopa kaikkein peräänantamattomimpiin skeptikkoihin, jotka kokevat mahdollisuudet saavuttaa tunteen.

Jossain määrin siksi tekoälyn etiikka ja eettinen tekoäly ovat niin tärkeä aihe.

Tekoälyn etiikan ohjeet saavat meidät pysymään valppaina. Tekoälyteknikot voivat toisinaan olla kiinnostuneita teknologiasta, erityisesti huipputekniikan optimoinnista. He eivät välttämättä ota huomioon suurempia yhteiskunnallisia seurauksia. Tekoälyn eettinen ajattelutapa ja sen integroiminen tekoälyn kehittämiseen ja harjoittamiseen on elintärkeää asianmukaisen tekoälyn tuottamiseksi, mukaan lukien sen arvioiminen, kuinka tekoälyetiikka otetaan käyttöön yrityksissä.

Tekoälyn eettisten ohjeiden yleisen soveltamisen lisäksi on vastaava kysymys, pitäisikö meillä olla lakeja säätelemään tekoälyn eri käyttötapoja. Liittovaltion, osavaltion ja paikallisen tason uudet lait koskevat tekoälyn suunnittelun laajuutta ja luonnetta. Pyrkimys tällaisten lakien laatimiseen ja säätämiseen on asteittaista. Tekoälyn etiikka toimii ainakin harkittuna pysähdyspaikkana, ja se sisällytetään lähes varmasti jossain määrin suoraan näihin uusiin lakeihin.

Huomaa, että jotkut väittävät jyrkästi, ettemme tarvitse uusia tekoälyä koskevia lakeja ja että nykyiset lakimme ovat riittäviä. He varoittavat, että jos säädämme osan näistä tekoälylaeista, tapamme kultaisen hanhen hillitsemällä tekoälyn edistysaskeleita, jotka tarjoavat valtavia yhteiskunnallisia etuja. Katso esimerkiksi kuulutukseni osoitteessa linkki tähän.

Aiemmissa kolumneissa olen käsitellyt erilaisia ​​kansallisia ja kansainvälisiä pyrkimyksiä laatia ja säätää tekoälyä sääteleviä lakeja, ks. linkki tähän, esimerkiksi. Olen myös käsitellyt erilaisia ​​tekoälyn eettisiä periaatteita ja ohjeita, jotka eri valtiot ovat tunnistaneet ja omaksuneet, mukaan lukien esimerkiksi Yhdistyneiden kansakuntien pyrkimykset, kuten Unescon tekoälyn etiikka, jonka lähes 200 maata on hyväksynyt, ks. linkki tähän.

Tässä on hyödyllinen avainlista eettisistä tekoälykriteereistä tai ominaisuuksista koskien tekoälyjärjestelmiä, joita olen aiemmin tutkinut tarkasti:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Tekoälykehittäjien oletetaan vakavasti hyödyntävän näitä tekoälyn eettisiä periaatteita, samoin kuin ne, jotka hallitsevat tekoälykehitystä, ja jopa ne, jotka viime kädessä ottavat käyttöön ja ylläpitävät tekoälyjärjestelmiä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten tässä on aiemmin korostettu, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, jota varten koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Pidetään asiat maanläheisinä ja keskitytään nykypäivän laskennalliseen tuntemattomaan tekoälyyn.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Uskon, että olen nyt asettanut alustan keskustelemaan riittävästi tekoälyn roolista keinona saada psykologinen rokote disinformaation ja väärän tiedon käsittelyyn liittyen.

Ihmisten mieliin pääseminen

Aloitetaan väärän tiedon ja disinformaation taustalla olevista perusteista.

Yleensä väärällä tiedolla tarkoitetaan väärää tai harhaanjohtavaa tietoa.

Disinformaatio on suunnilleen sama, vaikka se koostuu lisätystä elementistä tahallisuus. Yleensä tulkitsemme tiedon disinformaatioksi, kun se on tietoa tarkoitettu tiedottaa väärin.

Voisin kertoa teille, että kello on tällä hetkellä 10 yöllä, mikä oletetaan olevan väärää, koska kello on todella keskiyö. Jos olisin aavistuksena kertonut sinulle kello 10 enkä yrittänyt olla petollinen, sanoisimme yleensä, että olin ilmoittanut sinulle väärin. Olin välittänyt väärää tietoa. Ehkä olin laiska tai ehkä uskoin todella, että kello oli 10. Toisaalta, jos olisin maininnut kello 10, koska halusin tarkoituksella huijata sinut ajattelemaan, että kello on 10 ja että tiesin kellon olevan itse asiassa keskiyö, tämän voitaisiin sanoa olevan disinformaation muoto. .

Yksi huomionarvoinen näkökohta tiedossa on, että tyypillisesti pystymme levittämään tiedon ympärille ja siten tieto voi levitä jonkin verran. Tieto voi todellakin virrata kuin vesi, laajassa mielessä.

Kerron teille, että kello on 10 yöllä. Sinulla on nyt kyseinen tieto. Saatat huutaa ääneen lähistölle, että kello on 10 yöllä. Heilläkin on nyt samat tiedot. Ehkä jotkut heistä tunkeutuvat matkapuhelimiinsa ja soittavat muille ja kertovat, että kello on 10. Kaiken kaikkiaan tietoa voidaan levittää tai jakaa ja joskus niin nopeasti, kun taas toisissa tapauksissa niin hitaasti.

Tietyssä mielessä voit väittää, että tiedot voivat levitä viruksia.

On keksitty sana tai terminologia, jota et ehkä ole erityisesti nähnyt tai käyttänyt ja joka auttaa kuvailemaan tätä tiedon leviämisen ilmiötä. tietodeeminen. Tämä sana on sekoitus sekä tietoa että epidemiaa. Yleisesti ottaen infodemia liittyy olosuhteisiin, joihin liittyy väärän tai disinformaation leviämistä. Ajatus on, että väärä tai harhaanjohtava tieto voi levitä virukselle ei-toivotulla tavalla, samoin kuin taudin tai sairauksien ei-toivottu leviäminen.

Esimerkissä kello 10 yöllä tämä näennäinen tosiasia oli tieto, joka levisi läheiselle ihmisryhmälle. He puolestaan ​​levittävät tosiasiaa muille. Jos kello 10 oli väärennös, tämä erityinen disinformaation tai väärän tiedon tapaus levisi monille muille. He eivät ehkä tiedä, että tieto oli väärää tai mahdollisesti väärää tietoa.

Luotan siihen, että kaikki nämä määritelmät ja perusteet vaikuttavat järkeviltä ja olet mukana toistaiseksi.

Hienoa, jatketaan.

Olen johtanut sinut hieman vaivalloisesti johonkin, joka kiehtoo ja myös ahdistaa paljon. Asian ydin on, että viruksen aiheuttamien sairauksien ja väärän tiedon tai disinformaation välillä on kiistatta kohtuullisia yhtäläisyyksiä.

Kaikki eivät ole samaa mieltä näistä väitetyistä yhtäläisyyksistä. Siitä huolimatta ne ovat kiehtovia ja huomioimisen arvoisia.

Sallikaa minun tarkentaa.

Katsos, voimme yrittää hyödyntää kätevää analogiaa, jossa viitataan ihmisten levittämiin sairauksiin ja sairauksiin, jotka leviävät vertaamalla samanlaista mahdollisuutta väärän tiedon ja disinformaation leviämiseen. Sairauksien leviämisen pysäyttämiseksi voimme pyrkiä havaitsemaan varhaisessa vaiheessa ja pyrkimään hillitsemään taudin mahdollisen leviämisen merkkejä. Toinen tapa käsitellä leviävää tautia olisi suojautua tartunnasta käyttämällä maskia tai suojavarusteita harkiten. Kolmas lähestymistapa voisi olla rokotusten ottaminen taudin aiheuttaman immuniteetin kehittämiseksi.

Olemme nyt saavuttaneet täyden ympyrän siinä mielessä, että samoja lähestymistapoja sairauksien selviytymiseen voidaan verrata eksplisiittisesti väärän tiedon ja disinformaation käsittelyyn. Mainitsin aiemmin, että samankaltaisia ​​ponnisteluja on meneillään tekoälyn käyttämiseksi, jotta yritetään selviytyä disinformaatiosta ja väärästä tiedosta, erityisesti (kuten aiemmin mainittiin):

  • Pysähdy Get-Goon: Tekoälyä voidaan käyttää havaitsemaan ja yrittämään poistaa disinformaatiota ja väärää tietoa ennen kuin ne paljastuvat
  • Suodata ennen nähty: Tekoälyä voidaan käyttää suodattamaan disinformaatiota ja väärää tietoa, jotta sinun ei tarvitse huolehtia sen näkemisestä
  • Valmistaudu olemaan immuuni: Tekoälyä voidaan käyttää vahvistamaan valmiuttasi ja kykyäsi taistella disinformaation ja väärän tiedon kanssa (jota tunnetaan jonkin verran muodollisesti eräänlaisena psykologisena rokotuksena)
  • Muut

Kolmas näkökohta on tässä eniten kiinnostava.

Tässä on sopimus.

Tiedämme, että sairaudet iskevät yleensä ihmiskehon. Analogisesti siitä, miten väärää tietoa ja disinformaatiota esiintyy, voisimme ehdottaa, että väärää tietoa iskee ihmismieli. Kyllä, voit oletettavasti joutua kosketuksiin disinformaation tai väärän tiedon kanssa, joka virtaa mieleesi. Disinformaatio tai väärä tieto mahdollisesti turmelee tai myrkyttää ajattelutapasi.

Ihmiskeho voidaan rokottaa, jotta se yrittää valmistautua kosketuksiin sairauksien kanssa. Herää suuri kysymys, voimmeko tehdä saman ihmismielen hyväksi. Onko mahdollista yrittää rokottaa mieltä niin, että kun mieleesi tulee disinformaatiota tai väärää tietoa, olet valmis siihen ja olet rokotettu sen mukaisesti?

Opintoala, joka tunnetaan nimellä psykologinen rokotus olettaa, että mieli voidaan todellakin rokottaa siinä mielessä, että se on valmis käsittelemään väärää tai disinformaatiota.

Harkitse tätä kuvausta äskettäisessä tutkimuksessa, joka koskee psykologista rokotusta ja sitä, mitä joskus sanotaan tekeväksi prebunking:

  • ”Väärininformaation paljastaminen on ongelmallista myös siksi, että väärän tiedon korjaaminen ei aina mitätöi sen vaikutuksia kokonaan, ilmiö tunnetaan jatkuvana vaikutuksena. Näin ollen, toisin kuin paljastaminen, prebunking on noussut esiin keinona rakentaa ennaltaehkäisevästi sietokykyä odotettavissa olevaa väärää tietoa vastaan. Tämä lähestymistapa perustuu yleensä rokoteteoriaan. Rokotteiden teoria noudattaa lääketieteellistä immunisaatioanalogiaa ja olettaa, että on mahdollista rakentaa psykologista vastustuskykyä ei-toivottuja suostutteluyrityksiä vastaan, aivan kuten lääkerokotteet rakentavat fysiologista vastustuskykyä patogeeneja vastaan.Tiede ennakot24. elokuuta 2022, "Psykologinen rokotus parantaa vastustuskykyä sosiaalisen median väärää tietoa vastaan", kirjoittajat Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje ja Stephan Lewandowsky).

Palatakseni esimerkkiini kello 10 yöllä, oletetaan, että olen aiemmin kertonut sinulle, että joskus väitetty aika ei ole oikea aika. Tästä lähtien sinulla on rokotusmuoto, jotta voit varoa vaadittuja aikoja. Tämä rokote on valmistanut sinut kosketuksiin väitettyjen aikojen kanssa, jotka ovat disinformaatiota tai väärää tietoa.

Jos olisin varoittanut sinua useita vuosia sitten väitteistä, jotka eivät ole todellisia aikoja, on mahdollista, että et ehkä ajattele tuota kauan sitten tapahtunutta varoitusta. Siten aikaisempi rokotus on (sanotaanko) kulunut pois. Rokotteeni sinulle on ehkä tehostettava.

On myös mahdollista, että rokotus ei ollut tarpeeksi tarkka, jotta voit käyttää sitä tarvittaessa. Jos olisin vuosia sitten varoittanut sinua väiteajoista ja todellisista ajoista, se saattaa olla liian laaja. Rokotus ei välttämättä toimi siinä tapauksessa, että sinulle kerrotaan noin kello 10. Siinä mielessä rokotukseni olisi ehkä pitänyt olla se, että sinun pitäisi olla varovainen, kun käytetään ilmoitettua kello 10:tä. Tietenkin sairauksien tapauksessa rokotteet ovat jokseenkin samoja, toisinaan hyvin spesifisiä tunnetuille vaivoille, kun taas toisissa tapauksissa ne ovat laaja-alaisia.

Columbian yliopiston William McGuiren vuonna 1961 tekemää usein siteerattua tutkimusta psykologisesta rokotuksesta pidetään nykyään klassikkona tällä tutkimusalalla. Saatat kiinnostaa näitä hänen tuolloin mainitsemiaan avainkohtia:

  • "Tällainen yleinen immunisointi voi johtua jommastakummasta kahdesta mekanismista. Esialtistuminen saattaa järkyttää henkilön ymmärtämään, että hänen aina hyväksymänsä "tosiasiat" ovat todellakin haavoittuvia, mikä provosoi hänet puolustamaan uskoaan, minkä seurauksena hän vastustaa vahvempia vasta-argumentteja niiden tullessa. Vaihtoehtoisesti esipaljastukseen liittyvät kiistämät saattavat saada kaikki myöhemmin esitetyt vasta-argumentit uskoa vastaan ​​näyttämään vähemmän vaikuttavilta" (William McGuire, "Resistance To Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments", Journal of Abnormal and Sosiaalipsykologia, 1961).

Onko tämä rokotusten ja immunisoinnin analogia mielestäsi hyödyllinen ja osuva vertailu väärän tiedon ja disinformaation maailmaan?

Jotkut tekevät, jotkut eivät.

Hyväksy tämän keskustelun kannalta, että lähtökohta on kohtuullinen ja osuva.

Kuinka voimme yrittää rokottaa tai rokottaa ihmisten mielet?

Voisimme saada ihmiset lukemaan kirjoja, jotka voisivat valaista heidän mieltään. Saatamme kertoa heille siitä tai pyytää heitä katsomaan videoita tai kuuntelemaan ääninauhoja. Jne.

Ja voimme käyttää tekoälyä tekemään samoin.

Tekoälyjärjestelmä voidaan suunnitella rokotteeksi. Aina kun alat käyttää verkkoa, kuten katsot Internetiä, tekoälypohjainen sovellus saattaa valmistaa sinut online-matkallesi. Tekoäly saattaa syöttää sinulle teini-ikäisen pienen määrän disinformaatiota, joka on leimattu sellaiseksi, jolloin voit ymmärtää, että olet näkemässä jotain, joka on tarkoituksellisesti väärää.

Kun joudut altistumaan tälle tekoälyllä syötetylle disinformaatiolle, mielesi on nyt valmis käsittelemään disinformaatiota tai väärää tietoa, jota saatat kohdata luonnossa Internetissä. Mielesi on valmis. Voila, näet Internetissä blogin, joka tarjoaa väitetyn tosiasian, että Marsista tulleet avaruusolennot ovat jo täällä maan päällä ja piiloutuvat näkyville, mutta mielesi hylkää tämän näennäisen disinformaation tai väärän tiedon aikaisemman rokotuksen vuoksi (no, sitten taas, ehkä se on totta ja he todella ovat täällä!).

Joka tapauksessa toivon, että pystyt nyt huomaamaan, kuinka tekoäly voi auttaa inokuloimaan tai immunisoimaan ihmisiä disinformaation tai väärän tiedon suhteen.

Erilaisia ​​tekoälysovelluksia suunnitellaan, jotka toimivat disinformaation tai väärän tiedon inokulaattorina. Tekoäly saattaa pyrkiä tarjoamaan rokotteen, joka on laaja ja antaa yleisen vaikutelman immunisaatiosta. Tekoälyä voitaisiin kehittää myös tarkempiin rokotusmuotoihin. Lisäksi tekoäly voi toimia henkilökohtaisella pohjalla, joka on viritetty erityistarpeidesi tai kiinnostuksen kohteidesi mukaan. Kehittynyt tekoäly tässä tilassa yrittää myös määrittää toleranssitasosi, henkisen imeytymisasteen, retentiokyvyn ja muut tekijät ikään kuin laadittaessa ja esitettäessä niin kutsuttuja rokotuskuvia.

Vaikuttaa aika kätevältä.

AI Dangerous Mind Games Playerina

Tällä tavalla käytetty tekoäly vaikuttaisi ensi silmäyksellä varsin kätevältä (hei, mainitsin sen vain sekunti sitten).

On olemassa joukko mahdollisia haittapuolia ja ongelmia, jotka ovat huolestuttavia ja ehkä pelottavia.

Kolumneillani keskustelen usein tekoälyn kaksikäyttökapasiteeteista, katso esim linkki tähän. Tekoäly voi olla ihmiskunnan elintärkeä tekijä. Valitettavasti tekoälyä rasittavat myös monet vaarat ja valitettavat sudenkuopat.

Tarkastellaanpa näitä tekoälyn etiikkaan liittyviä demonstratiivisia kysymyksiä, jos kyseessä on tekoäly inculcatorina:

  • Ihmisten aiheuttamat haittavaikutukset
  • Ihmisten reagoimattomat reaktiot
  • AI kohdistaa väärin
  • AI alikohdistus
  • Tekoälyn kyberrikkomus
  • Muut

Selvitämme lyhyesti näitä huolenaiheita.

Ihmisten aiheuttamat haittavaikutukset

Oletetaan, että ihmisellä, joka saa tällaista AI-pohjaista rokotusta, on haittavaikutus tai se tuottaa haitallisen vaikutuksen.

Henkilö voi ymmärtää rokotuksen väärin ja yhtäkkiä olla vastaanottamaton vastaanottamilleen tiedoille. Ne estävät kaiken tiedon. Tekoäly on jotenkin saanut heidät heittämään vauvaa ulos kylpyvedellä (vanha sanonta, ehkä kannattaa jäädä eläkkeelle). Sen sijaan, että hän olisi yrittänyt selviytyä disinformaatiosta ja väärästä tiedosta, henkilö on reagoinut päättämällä, että kaikki tiedot ovat aina vääriä.

En usko, että haluamme ihmisten menevän niin yli laidan.

On olemassa lukuisia haittavaikutuksia, joita tekoäly voi edistää. Tämä johtuu osittain siitä, kuinka tekoäly yritti suorittaa rokotuksen, mutta meidän on myös asetettava osa ongelmasta rokotuksen saaneen ihmisen jalkoihin. He ovat saattaneet reagoida villillä tai omituisilla tavoilla, joita muut saman AI-rokotuksen saaneet eivät tehneet niin.

Voit jälleen verrata tätä sairauksien rokotusten analogiaan.

Lyhyesti sanottuna on tärkeää, että kun tällaisia ​​tekoälytoimia käytetään, ne tehdään vastuullisilla tavoilla, joilla pyritään minimoimaan haittavaikutukset. Tekoälyyn tulisi myös olla jatko-osa, jotta voidaan varmistaa, onko haittavaikutuksia esiintynyt. Jos havaitaan haittavaikutus, tekoäly tulisi suunnitella auttamaan henkilöä hänen haitallisissa reaktioissaan ja pyrkimään voittamaan tai lievittämään vastetta.

Ihmisten reagoimattomat reaktiot

Toinen mahdollisuus on, että tekoälyllä syötetyllä rokotteella ei ole vaikutusta vastaanottavaan henkilöön.

Henkilö saa tekoälypohjaisen rokotuksen, joka liittyy väärään tai disinformaatioon. Vaikka useimmat ihmiset "saavat sen" ja rokotetaan, on varmasti ihmisiä, jotka eivät reagoi ollenkaan. He eivät opi rokotuksesta mitään. He eivät reagoi tekoälyn yrityksiin immunisoida heidät joko kaikilta tai tietyntyyppisiltä väärältä tai disinformaatiolta.

Jälleen kerran tämä on verrattavissa sairauksien rokotuksiin.

Tekoäly pitäisi suunnitella kestämään tällaista tilannetta.

AI virheellinen kohdistaminen

Kuvittele, että tekoäly toivoo immunisoivansa ihmisiä tietystä aiheesta, jonka sanomme olevan aihe X, mutta käy ilmi, että aihe Y sen sijaan käsitellään. AI kohdistaa väärin.

Tämä on kaksijakoinen ongelma. Ensinnäkin aihetta X ei ole silloin käsitelty tekoälyrokotteen oletettuna ja toivottuna tarkoituksena. Toiseksi, aihe Y on käsitelty, mutta emme ehkä olisi halunneet, että ihmisiä rokotetaan tästä aiheesta.

Hups.

Kysymyksiä riittää. Olisiko tämän voinut estää? Jos näin tapahtuu, voimmeko peruuttaa Y-rokotteen aiheen? Voimmeko yrittää kattaa aiheen X rokotus, vai onko henkilö vähemmän vastaanottavainen vai ei-vastaanottava tekoälyn alun perin tekemän virheellisen kohdistamisen vuoksi?

Ongelmallisia huolenaiheita syntyy paljon.

Tekoälyn alikohdistus

Tekoäly tarjoaa rokotuksen aiheesta Z. Rokotteen saavilla ihmisillä näyttää olevan minimaalinen tai lähes merkityksetön reaktio. Rokotus ei riittänyt tarttumaan.

Saatat tuntea houkutusta väittää nopeasti, että tämä on helppo ratkaista. Sinun tarvitsee vain toistaa rokotus. Ehkä kyllä ​​ehkä ei.

Tekoälyrokotuksella voi olla niin rajallinen arvo, että vaikka ihmiset kokevat sen sata kertaa, tulos on silti marginaalinen tulos. Sinun on ehkä tehostettava rokotusta sen sijaan, että toistaisit sen.

Kuvittele sillä välin, että tekoälyllä syötettyä rokotusta yritetään tehostaa, mutta tämä menee yli laidan. Tehostettu versio aiheuttaa hyperreaktioita. Jep, olemme tulleet pahasta pahempaan.

Tekoälyn kyberrikkomus

Kuvittele, että tekoälyä käytetään laajasti ihmisten auttamiseksi saamaan disinformaatiota ja väärää tietoa.

Yleinen riippuvuus valtaa ihmiset. He tietävät ja odottavat, että tekoäly esittää heille katkelmia, jotka avaavat heidän silmänsä niin sanotulle disinformaatiolle ja väärälle tiedolle.

Kaikki näyttää olevan hyvin ja hyvin.

Pahantekijä pystyy jollain tapaa tekemään tekoälyn kybermurron. He pakottavat tekoälyyn lujasti haluttua disinformaatiota, jonka he haluavat ihmisten ajattelevan, ettei se ole disinformaatiota. Tekoäly on järjestetty saamaan todellisen disinformaation näyttämään oikealta tiedolta. Myös oikea tieto saatetaan näyttämään disinformaationa.

Ihmiset ovat täysin snookerissa. Tekoäly antaa heille vääriä tietoja. Sen lisäksi, koska he olivat tulleet riippuvaisiksi tekoälystä ja koska he luottivat tekoälyn tekevän oikein, he joutuvat koukkuun, siimaan ja uppoutumaan tähän rikkoutuneeseen tekoälyyn. Epäröimättä.

Ottaen huomioon, kuinka helposti disinformaatio voi levitä edelleen, pahantekijä saattaa nauttia siitä, että tällaisen tekoälyn olemassaolo on heidän helpoin ja nopein tapa saada salakavalat valheensa leviämään ympäri maailmaa. Ironista tietysti, että olen käyttänyt tekoälyrokotteita levittääkseen olennaisesti tautia.

Yhteenveto

Pitäisikö tekoäly pelata kanssamme mielipelejä?

Voiko disinformaation ja väärän tiedon rokottamiseen tarkoitettu tekoäly olla uhkaava Troijan hevonen?

Voit perustella huolesi sellaisesta painajaisesta.

Toiset nauravat sellaiselle mahdollisuudelle. Ihmiset ovat tarpeeksi älykkäitä tietääkseen, milloin tekoäly yrittää huijata heitä. Ihmiset eivät lankea sellaiseen huijaukseen. Vain idiootit joutuisivat harhaan sellaisella tekoälyllä. Nämä ovat tavallisia retorteja ja vasta-argumentteja.

Haluamatta vaikuttaa vain ihailevan ihmisiä ja ihmisluontoa, ehdotan vain, että on olemassa runsaasti viitteitä siitä, että ihmiset voivat tyytyä tekoälyyn, joka johtaa heitä harhaan.

On vielä suurempi ongelma, joka ehkä häämöttää kaiken tämän.

Kuka tekee tekoälyn ja miten tekoäly määrittää algoritmisesti, mitä pidetään disinformaationa ja vääränä?

Kokonainen tulitaistelu käydään nykyään koko maailmassa siitä, mikä on nimenomaan disinformaatiota ja väärää tietoa. Jotkut väittävät, että tosiasiat ovat tosiasioita, joten koskaan ei voi olla epäselvyyttä siitä, mikä oikea tieto on väärää tietoa. Paholainen on kuitenkin toisinaan yksityiskohdissa, se on aivan varmaa.

Viimeinen huomio toistaiseksi. Abraham Lincoln sanoi kuuluisasti: ”Voit huijata kaikkia ihmisiä jonkin aikaa ja joitain ihmisiä koko ajan, mutta et voi huijata kaikkia ihmisiä koko ajan.”

Onko tekoäly, jota käytetään auttamaan ihmiskunnan rokottamisessa disinformaatiosta ja väärästä tiedosta, tärkeä työkalu sen varmistamiseksi, ettei kaikkia ihmisiä voida huijata jatkuvasti? Vai voidaanko sitä käyttää huijaamaan enemmän ihmisiä useammin?

Aika näyttää.

Ja se ei varmasti ole disinformaatiota tai väärää tietoa.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/