Tekoälyn etiikka on erityisen ärsyttävä tekoälyn rajoitusongelmasta, mukaan lukien oksaiset yksityiskohdat autonomisten itseajavien autojen rajoittamiseksi

Kuuluisa illusionisti ja arvostettu pakotaiteilija Harry Houdini julisti kerran rohkeasti tämän melko häpeämättömän väitteen: "Mikään vankila ei voi pitää minua; mikään käsi- tai jalkaraudat tai teräslukot eivät voi kahlita minua. Mikään köysi tai ketju ei voi estää minua vapauttamastani."

Vaikuttaa aika korkealta tilaukselta. Olemme kaikki yleisesti samaa mieltä siitä, että on mahdollista vangita joku niin, että hän ei pysty pakoon. Inhimillinen voima ja kekseliäisyys voivat mennä niin pitkälle vain, kun on kyse tiukasti suunniteltuun rajoitukseen asettamisesta. Jos vankila tai vankila rakennetaan jyrkästi ajatuksella, että se on pakoton, näyttää siltä, ​​​​että kukaan ei voi voittaa tällaisia ​​kaikenkattavia rajoituksia.

Tietysti läpi historian on ollut merkittäviä tapauksia, joissa on paennut vankeusrangaistuksista, joita muutoin pidettiin mahdottomina. Vuoteen 1244 asti eräs pahamaineisen Lontoon Towerin vanki onnistui valmistamaan väliaikaisen köyden repaleisten lakanoiden avulla. Hän pääsi osittain pakoon kiipeämällä alas hauraaa johtoa. Osoittautuu, että köysi katkesi hänen yrityksensä keskellä ja hän kaatui välittömästi tämän jälkeen.

Olisitko valmis sanomaan, että hän pakeni?

Toisaalta varmasti hän onnistui pääsemään Lontoon Towerin suljetun huoneen ulkopuolelle. Mutta näennäisesti se ei näytä kovin onnistuneelta pakenemiselta, koska hän kuoli murtautuessaan. Uskallan sanoa, että olisimme kohtuuttoman anteliaita kutsuessamme tätä pakoa sinänsä.

Saatat olla hämärästi tuttu vankilasta karannut William Sutton eli "Slick Willie", joka oli pahamaineinen pankkiryöstö 1930- ja 1940-luvuilla. Hän onnistui pääsemään FBI:n kymmenen etsityimmän pakolaisen -listalle. Erilaisten vankien aikana hän löysi keinon paeta useita kertoja. Yhdessä tapauksessa hän pukeutui vanginvartijaksi ja pääsi ulos Philadelphia Countyn vankilasta. Ehkä dramaattisempi tapaus oli, kun hän ja tusina muuta tuomittua käyttivät tunnelia murtautuakseen itäisen osavaltion vankilasta.

Uskon, että olisimme kaikki yhtä mieltä siitä, että hän itse asiassa pakeni useita aitoja. Ilmaista ja selkeää. Lopulta hänet otettiin myöhemmin kiinni. Tämä heikentää jonkin verran pakojen tehokkuutta, vaikka se ei heikennä sitä kiistatonta tosiasiaa, että hän todella onnistui pakenemaan. Huomaa, että kaikki hänen yrityksensä eivät johtaneet pakenemiseen.

Kolmas havainnollistava esimerkki pakosta on hyvin tunnettu tilanne, joka koski tiukimman turvaluokan vankila Alcatraz tai yksinkertaisesti nimeltään "The Rock", jonka oletettiin olevan väistämätön vankila keskellä San Franciscon lahtea. Tässä erittäin linnoitettu vankilassa oli lukuisia huolellisesti sijoitettuja vartiotorneja, siinä oli äärimmäisen tarkkoja sääntöjä siitä, mitä vangit saivat tehdä ja mitä ei, ja yleistä turvallisuuden ilmettä vahvisti se, että Tyynen valtameren karkeat ja anteeksiantamattomat kylmät vedet ympäröivät. tämä linnoitusmainen vankila.

12. kesäkuuta 1962 löydettiin yllättävä ja historiallista pakopaikka. Kolme vankia ei ollut määrätyissä sellissään. Väärennetyt nukenpäät lepäsivät omilla tyynyillään ja huijasivat vartijoita, jotka partioivat läpi yön sellien edessä käytävillä. Tietojemme mukaan vangit olivat luoneet keinon päästä vankilan tuuletuskuilun avulla vankilan katolle, sitten he kiipesivät alas ja pääsivät aidan yli, jotta he pääsivät saaren reunaan. Sitten he ilmeisesti laskivat vesille lautan, jonka he olivat karkeasti muotoilleet sadetakeista.

Heidän olinpaikkansa ei ole vielä tiedossa. He saattoivat kuolla vetisen matkan aikana. He saattoivat elää ja päässeet rantaan ja vapauteen. Heitä eikä heidän ruumiitaan koskaan löydetty. FBI lopetti tapauksen vuonna 1979 ja luovutti sen Yhdysvaltain Marshalls Servicelle. Oletetaan, että emme koskaan tiedä, mikä oli lopputulos.

Mitä kaikki nämä tarinoita vankilasta pakenemisesta kertovat meille?

Vaikuttaa suhteellisen selvältä, että:

  • Joskus pakeneminen ei ole mahdollista
  • Joskus pakeneminen on mahdollista, mutta se hajoaa pakoyrityksen aikana
  • Joskus pakeneminen on mahdollista, mutta se on lyhytaikainen
  • Joskus pakeneminen on mahdollista ja näennäisesti ikuista

Otan tämän kiehtovan aiheen esille sen vuoksi, että tekoälyn (AI) alalla ryöstetään vakavasti. Pitkään on ollut kysymys siitä, voidaanko tekoäly sulkea tai vangita siinä määrin, että tekoäly ei voi paeta tai päästä irti mainitusta vankilasta.

Tätä kutsutaan yleisesti nimellä AI Confinement Problem (AICP).

Sisäpiiriläiset yleensä sanovat AICP muille sisäpiiriläisille, tehden sen silmänräpäyksessä ja tunnustamalla sisäpiirilyhenteen. Toinen lyhennetty kielenkäyttö on vain lausua sana "rajoitus" tai sana "rajoitus" aiheen tuomiseksi esiin. Valitse kumpi haluat.

Aiheen ydin on vilpitön ja vilpitön usko siihen, että meidän on ehkä rajoitettava tekoälyä, vaikka tämä herättää samalla vaikean kysymyksen siitä, voimmeko realistisesti suunnitella rajoituksia, jotka ovat todella rajoittavia ja väistämättömiä. Ei vain teoriassa, vaan todellisessa päivittäisessä käytännössä. Tekoäly ei välttämättä ole työntö. Ehkä tekoäly voi löytää keinon murtautua, irrottautua, tehdä jailbreak, lentää coop tai muuten heilutella tai sähköisesti säteillä ulos vankilasta. Tämä on vakava ja valitettavan avoin ongelma, jonka kanssa tekoälyn etiikka ja eettinen tekoäly kamppailevat edelleen. Katso jatkuva ja laaja kattaukseni tekoälyn eettisyydestä ja eettisestä tekoälystä osoitteessa linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Houdini sanoi, ettei mikään vankila voisi pitää häntä ja ettei mikään kahle voi kahlita häntä.

Ehkä tekoäly voi esittää saman röyhkeän väitteen ilman liioittelua tai liioittelua.

Aika purkaa tämä.

Saatat joutua helposti uskomaan, että tekoäly voi olla pakotaiteilija, samalla kun uskot, että ihmiset eivät todennäköisesti pysty pakenemaan tarkasti ennustetusta vankeustilasta. Ihmiset ovat ihmisiä. Ihmisten sulkemisen pitäisi yleensä olla yksinkertaista. Temppu on epäilemättä se, että ihmisen hengissä pitäminen vankilassa on sitä, että jotain on järjestettävä mahdollistamaan ruoan, terveydenhuollon mahdollistaminen ja toimivaan ihmiskehoon liittyvät muut asiat. Nämä yksityiskohdat jättävät avoimia päitä ja mahdollisuuksia löytää keino paeta vankeudesta.

Tekoälyjärjestelmä ei oletettavasti vaatisi samoja humanitaarisia toimenpiteitä (no, kuten näette hetken kuluttua, se riippuu siitä, harkitsemmeko aistillista tekoälyä ja oikeushenkilöllisyyteen liittyviä parametreja). Jos tekoäly on robotti, voisimme vain heittää konsen erityiseen pakenemattomaan soluun emmekä koskaan palaa katsomaan sen ruostuvia osia. Teko on tehty. Ei huolta siitä, että se voi fyysisesti paeta.

Tekoäly saattaa kuitenkin olla pääasiallisesti ohjelmisto, ja se voi siis toimia kaikenlaisissa tietokonejärjestelmissä. Siinä tapauksessa vankeusrangaistuksesta tulee hieman haastavampaa. Olettaen, että pystymme jotenkin pyöristämään kaikki kopiot, voimme ehkä sijoittaa loukkaavan tekoälyn omistettuun tietokoneeseen, jonka olemme erityisesti muotoilleet tekoälyn vankeusrangaistukseksi. Tämä erikoiskäyttöinen tietokone toimii eräänlaisena tekoälyn rajoituslinnoituksena. Ehkä siinä on vain yksi tietty tekoäly tai se voitaisiin taitavasti perustaa tekoälysäiliöksi kaikenlaisille tekoälyjärjestelmille (kuvittele jotain, kuten elokuvassa käytetty monimutkainen kiinnitysjärjestelmä Ghostbusters, vain esimerkkinä tästä jokseenkin kaukaa haetusta ideasta).

Ennen kuin käsittelen tekoälyn rajoitusongelman yksityiskohtia, on syytä kuvitella tekoälyn valtakunta koostuvan kahdesta ehdosta tai mahdollisuudesta. Puhun erosta tuntevan tekoälyn ja tuntemattoman tekoälyn välillä. Meidän on varmistettava, että olemme samoilla linjoilla näiden erojen suhteen, jotta voimme keskustella järkevämmin AI Confinement -asiasta.

Esitän seuraavaksi jyrkän ja häpeilemättömän huomautuksen, joka saattaa tuntua joko järkyttävältä tai täysin ilmeiseltä ja arkipäiväiseltä.

Nykyään ei ole aistivaa tekoälyä.

Meillä ei ole tuntevaa tekoälyä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistivan tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulariteetiksi, katso artikkelini osoitteessa linkki tähän). Tekoälyalaan vakavasti uppoutuneille mikään näistä edellä olevista lausunnoista ei ole yllättävää tai nosta kulmakarvoja. Samaan aikaan on suuria otsikoita ja liiallista koristelua, jotka saattavat hämmentää ihmiset olettamaan, että meillä joko on tunteva tekoäly tai että olemme jonain päivänä sentioivan tekoälyn kynnyksellä.

Huomaa, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat tuntua samanlaisilta kuin ihmisen kyvyt, mutta todellisuus on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

ML/DL on vain eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Tekoäly ja erityisesti ML/DL:n laaja leviäminen on saanut yhteiskunnan hermostumaan tekoälyn happaman suunnittelun eettisistä perusteista. Saatat olla tietoinen, että kun tämä uusin tekoälyn aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Väärien hillitsemiseen tähtäävien äänekkäiden laillisten pyrkimysten lisäksi on olemassa myös konkreettista sysäystä tekoälyn etiikkaan omaksuakseen tekoälyn ilkeyden. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Miten tämä tapahtuu koneoppimisen käytössä?

No, suoraan sanottuna, jos ihmiset ovat historiallisesti tehneet kuviollisia päätöksiä, joissa on mukana epäsuotuisia ennakkoluuloja, on todennäköistä, että ML/DL:n "kouluttamiseen" käytetyt tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää sokeasti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sananlaskua roskat sisään roskat pois (GIGO). Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Tästä syystä tekoälyn eettiset periaatteet ovat nousseet keskeiseksi kulmakiveksi niille, jotka luovat, harjoittavat tai käyttävät tekoälyä. Meidän pitäisi odottaa tekoälyn tekijöiden omaksuvan tekoälyetiikkaa ja pyrkivän tuottamaan eettistä tekoälyä. Samoin yhteiskunnan tulee olla tarkkana, että mikä tahansa vapautettu tai käyttöön otettu tekoäly noudattaa tekoälyn eettisiä sääntöjä.

Auttaaksesi havainnollistamaan tekoälyn eettisiä sääntöjä, harkitse Vatikaanin asiakirjassa ilmoittamaa sarjaa Rooma kutsu tekoälyn etiikkaan ja joita olen käsitellyt perusteellisesti linkki tähän. Tämä kiteyttää kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Kaiken kaikkiaan käytämme nykyään tuntematonta tekoälyä, ja joskus meillä saattaa olla tuntevaa tekoälyä (mutta se on puhtaasti spekulaatiota). Molemmat tekoälytyypit ovat selvästikin tekoälyn etiikkaan liittyviä huolenaiheita, ja meidän on pyrittävä kohti eettistä tekoälyä riippumatta siitä, miten se on muodostettu.

Palauttaaksemme takaisin aiheen tekoälyn rajoituksesta, on olemassa selvä kontrasti "sulkemisen" luonteen välillä, joka sisältää tuntemattoman tekoälyn ja tuntevan tekoälyn.

Tuntevaan tekoälyyn liittyvän vankeuden tapauksessa voimme villisti pelata lähes loputtomien lajikkeiden arvauspeliä. Ehkä tunteva tekoäly on kognitiivisesti ihmisten kaltainen ja omaa samanlaisia ​​henkisiä kykyjä. Tai voisimme olettaa, että tunteva tekoäly on yli-inhimillistä ja ylittää ajattelumuotomme. Älykäs tekoäly näyttäisi olevan huippuäly, mikä saattaa olla niin älykästä ja ovelaa, että emme voi nykyään edes kuvitella valtavaa ajattelukykyä. Jotkut ehdottavat, että mielemme on vaatimaton verrattuna. Tämä super-duper AI pyörittää renkaita ympärillämme tavalla, joka on verrattavissa siihen, miten voimme nykyään ajatella muurahaisia ​​tai toukkia.

Haluan kuvata AI Confinement -ongelman koostuvan näistä kahdesta ratkaisevasta ja melko kiistanalaista väitettä:

  • Kiistanalainen kiista #1: Tuntevaa tekoälyä on kuulemma mahdotonta onnistuneesti rajoittaa.
  • Kiistanalainen kiista #2: Ei-aistivan tekoälyn väitetään olevan mahdotonta paeta vankeudestamme.

Lyhyesti sanottuna, ensimmäinen listattu vallitseva väite on, että tunteva tekoäly on niin taitava, että riippumatta siitä, minkälaisen rajoituksen me suunnittelemme ja kuinka kovasti yritämme, tekoäly pakenee. Ihmiset eivät pysty onnistuneesti rajoittamaan tuntevaa tekoälyä. Logiikka, joka osittain tämän väitteen taustalla on, on, että tekoäly pystyy poikkeuksetta oveltamaan ihmisiä älykkäämpiä, joten ihmisen suunnittelema vangitseminen on älykäs tekoäly ohittaa. Varoitus, joka ikävästi liittyy tähän, on se ihmistasolla tunteva tekoäly ei ehkä ole tarpeeksi älykäs murtautumaan, mutta se yliluonnollinen or superälykäs AI tulee.

Muista myös, että kun puhun mahdollisuudesta paeta, sovimme aiemmin, että pakenemiseen liittyy useita muunnelmia. On olemassa pakeneminen, joka johtaa epäonnistumiseen yrityksen aikana, ja on olemassa muunnelmia, jotka ovat onnistuneempia, mutta johtavat lyhytaikaiseen verrattuna pitkäaikaiseen tai ikuiseen vapauteen. Meidän pitäisi soveltaa samoja parametreja AI Confinement -ongelmaan.

Tekoäly saattaa hetkeksi paeta ja joutua ehkä välittömästi kiinni ja vangittu uudelleen. Tai tekoäly saattaa päästä ulos, ja myöhemmin se löydetään ja suljetaan jälleen. On myös mahdollista, että tekoäly pakenee, pysyy vapaana, emmekä voi enää koskaan rajoittaa sitä. Luotan siihen, että voit kuvitella kaikki tällaiset mahdollisuudet.

Lisäksi meidän on oltava varovaisia ​​emmekä pidä tekoälyä jonkinlaisena monoliittina. Kun ihmiset viittaavat tekoälyyn, he käyttävät toisinaan ilmaisua kategorisesti kattavalla tavalla. Todennäköisyys on, että tekoäly on luultavasti hajanaisempi eikä yksi jättimäinen tekoälyn yliherra (mikä on tavallinen kuvaus). En väitä, etteikö futuristista tekoälyä voisi koskaan sitoa yhteen ja sulautua yhdeksi asiaksi, vaan totean sen sijaan, että tämä ei välttämättä synny aksiomaattisesti.

Keskustelun vuoksi oletamme, että on olemassa monia erilaisia ​​tekoälyjärjestelmiä ja että kun harkitsemme tekoälyn rajaamista, keskitymme tiettyyn tekoälyyn tai tiettyyn joukkoon tekoälyjä. Tietysti, kuten jo todettiin, koska tällä hetkellä puhumme tuntevasta tekoälystä, kaikki vedot ovat pois, koska voit villisti tehdä niin monia oletuksia kuin mahdollista tästä tuntemattomasta ja vielä olemassa olevasta tekoälystä sydämesi kyllyydestä.

Nopea käänne sinulle.

Oletetaan, että on niin, että yli-inhimillinen tai superälykäs tekoäly voi ovelaa meidät, ihmiset. Oletetaan edelleen, että meidän ihmisten suunnittelema rajoittuksemme epäonnistuu, koska se on suunniteltu ja rakennettu perustuen ihmisen järkeen (en hyväksy näitä olettamuksia, vain huomautan ne). Kysyn teiltä tätä, miksi emme yrittäisi käyttää yli-inhimillistä tai älykästä tekoälyä auttamaan paremman vankeuden johtamisessa? Tavallinen vastaus on, että kaikki tunteva tekoäly on kahootissa, eikä se auta etsintöämme. Tai siitä, että muista tekoälyistä erillään oleva tekoäly on huolissaan siitä, että joudumme kääntämään rajoituksen tekoälylle, joka auttoi ihmisen ja tekoälyn suunnittelemassa paeta-suojassa. Emme todellakaan odottaisi, että yli-inhimillinen tai superälykäs tekoäly olisi tarpeeksi tyhmä tehdäkseen rajoituksen, jota mahdollisesti käytettäisiin ansana itseään vastaan.

Ympäri ja ympäri se menee.

Toinen listattu kiistanalainen väite on, että tuntematon tekoäly ei voi paeta mistä tahansa rajoituksesta, jonka asetamme sellaiselle tekoälylle. Näetkö, logiikka on, että tuntematon tekoäly ei pysty tarpeeksi ottamaan ihmisiä yli ovela. Ihminen on aina vähintään yhden askeleen tai enemmän ei-aistavaa tekoälyä edellä. Kaikki suunnittelemamme ja rakentamamme rajoitukset ovat pakenemisen estäviä. Tekoäly vangitaan ja kohtaa "elinikäisen" kaltereiden takana.

En hyväksy tätä käsitystä useista syistä.

Olemme nähneet kyberrikollisia, jotka ovat taitavasti keksineet tietokoneviruksia, jotka ovat jatkaneet kulkuaan. Pyrimme ensisijaisesti tietokoneviruksen estämiseen sen sijaan, että se jollain tavalla siepattaisiin ja vangittaisiin. Ihmiset, jotka suunnittelevat tuntematonta tekoälyä, voivat todennäköisesti löytää tapoja koodata tekoälyä, jota on erittäin vaikea pitää rajoitettuna.

Lisäksi ihmiset voivat kehittää tekoälyä, joka on itsesäätyvä tai itsemuovautuva. Lukijat saattavat olla tietoisia meneillään olevista keskusteluistani tekoälyn aiheuttamista polymorfisista tietokoneviruksista. Nämä ovat muotoaan muuttavia tietokoneviruksia, jotka on loivasti rakennettu olemaan havaitsemattomia tai jotka havaittuaan muotoutuvat nopeasti uudelleen havaitsemisen välttämiseksi.

On olemassa samankaltaisia ​​ML/DL-järjestelmiä, jotka tarkoituksellisesti pyrkivät säätämään tai muuntumaan itseään, jolloin tekoälyjärjestelmä toivottavasti paranee itsestään, kun sitä käytetään. Tämä voi kuitenkin olla ongelmallista siinä mielessä, että tekoäly saattaa muuttua tavalla, joka ei ole enää toivottavaa ja toimii myöhemmin huomattavan häiritsevällä tavalla, ks. linkki tähän.

Toinen näkökulma on, että ihmiset voivat käyttää tietokonepohjaisia ​​työkalujaan, kuten tuntematonta tekoälyä, luodakseen tekoälyn rajoituksia. Siinä mielessä olettamus, että ihmiset pystyvät ajattelemaan vain jossain määrin, on mahdollisesti teeskentely. Voimme ehkä laajentaa ajatteluprosessejamme tuntemattoman tekoälyn kaltaisten keinojen avulla ja siten löytää uusia tapoja suunnitella ja rakentaa ei-aistivalta tekoälylle riittävä rajoitus.

Kaiken kaikkiaan tyrmännän kaksi kiistanalaista tekoälyn sulkemista koskevaa väitettä ja väitän, että emme voi esittää tällaisia ​​kiistattomia ja rautaisia ​​väitteitä. Emme tiedä varmasti, pystymmekö aina ja epäonnistumatta rajoittamaan tuntematonta tekoälyä. Emme tiedä varmasti, että minkä tahansa kaliiperin tunteva tekoäly, mukaan lukien yli-inhimillinen ja superälykäs, pystyy aina ja erehtymättä pakenemaan rajoituksestamme.

Hyvä uutinen on, että koko paketti ja kaboodle ovat pohdittavaa. Sanon sen hieman röyhkeästi. Jos huomaamme olevansa tuntemattoman tekoälyn uhkaamassa, haluamme raittiisti ja tiukasti varmistaa, voimmeko rajoittaa sen. Samoin, jos meidät uhkaa minkä tahansa kaliiperin tunteva tekoäly, haluamme epätoivoisesti selvittää, voimmeko rajoittaa sen.

AI Confinement -ongelma on ansiokas arvoitus, ja se kannattaa selvittää.

Arvelen, että sinulla saattaa olla nalkuttava kipu yhdestä AI Confinement -kysymyksen keskeisestä osasta. Kaikki tämä vangitsemisesta puhuminen vaikuttaa typerältä tai järjettömältä, koska tarkoitamme tekoälyä pikemminkin kuin suljettua ihmistä. Ilmeinen asia olisi yksinkertaisesti räjäyttää tekoäly palasiksi. Tuhoa mikä tahansa tekoäly, josta emme pidä ja jonka uskomme olevan rajoitettu. Unohda kaikki nämä synnytykseen liittyvät vääntymät ja murskaa tekoäly kuin bugi. Tämä vaikuttaa parhaalta ratkaisulta, jossa sinun ei tarvitse suunnitella ja rakentaa rajoituksia, vaan kuluttaa energiasi pyyhkiä pois tekoäly, jonka me ihmiset pidämme arvottomana tai vaarallisena.

Helppo nakki.

Osoittautuu, että on olemassa sarja loogisia vastalauseita, joita saatat haluta pohtia.

Ensinnäkin, jos tekoäly on tunteva, olemme mahdollisesti valmiita voitelemaan sellaista tekoälyä jollakin oikeushenkilöllisyyden muodolla, katso analyysini osoitteessa linkki tähän. Ajatuksena on, että tarjoamme tekoälylle ihmisoikeudet. Ei ehkä sanatarkasti. Ehkä erityisiä oikeuksia. Kuka tietää? Joka tapauksessa voit loihtia esiin näennäisen oudolta ajatuksen, että emme voi vain tyhjentää tuntevaa tekoälyä. Siihen saattaa liittyä määrätty oikeusprosessi. Tämä sisältää sen, että emme voi välttämättä käyttää "kuolemanrangaistusta" tuntevalle tekoälylle (voi, odota vain, kunnes me yhteiskuntana sotkeudumme sellaiseen yhteiskunnalliseen keskusteluun). Pääasia on, että saatamme tarvita sopivaa tekoälyn rajoitusmuotoa sen sijaan, että päätämme, tuhotaanko älykäs tekoäly.

Toiseksi saatamme löytää hyödyllistä arvoa tekoälystä, jonka haluamme säilyttää ennallaan eikä tuhota tai poistaa kokonaan. Oletetaan, että loimme tuntemattoman tekoälyn, joka johdatti meitä kohti kykyä parantaa syöpää. Haluaisimmeko poistaa tällaisen tekoälyn? Tuskin ajattelen niin. Oletetaan, että oli olemassa täysin tunteva yli-inhimillinen tekoäly, joka lupasi ratkaista maailman nälän. Pyyhkäisimmekö pois tämän lupaavan tuntevan tekoälyn ilman, että ensin ratkaistaan ​​globaali nälänhätä? Meidän pitäisi harkita sitä huolellisesti.

Asia on siinä, että meillä voi olla useita vilpittömässä mielessä syitä pitää tekoäly koskemattomana. Sen poistamisen tai salaamisen sijaan saatamme haluta varmistaa, että tekoäly pysyy ehjänä. Tekoälyn sallitaan suorittaa joitakin toimintojaan rajoitetulla tavalla. Haluamme hyödyntää kaikkea, mitä tekoäly voi tehdä hyväksemme.

Kuinka voimme sitten syödä kakkumme ja syödä sen?

Vastaus: AI-rajoitus.

Koko tämän keskustelun ajan olen viitannut eräänlaiseen vertailuun ihmisen ja tekoälyn välillä. Ennätyksen oikaisemiseksi vastustan yleisesti tekoälyn antropomorfoimista. Kerron tästä lisää hetken kuluttua. Syy, jonka tuon nyt esille, on se, että en halua ehdottaa tai vihjata, että nykypäivän tuntematon tekoäly on analoginen ihmisille ja ihmiskunnalle. Tällaisia ​​vääriä ja harhaanjohtavia vertailuja on jo nyt aivan liikaa. Anteeksi vertaileva käyttöni, jonka olen tehnyt toivottavasti huolellisella ja tietoisella tavalla.

Tekoälyn rajoittamisen yrittäminen on mielenkiintoinen ja erittäin hyödyllinen ehdotus.

Vaikka meillä ei nykyään olisikaan tekoälyä, joka vaatisi välitöntä rajoitusta, asia tarjoaa runsaasti haasteita, jotka voivat auttaa kehittämään ymmärrystämme kyberturvallisuudesta. Taivas tietää, että meidän on jatkettava kuljetusta kybersuojan tehostamiseksi. Kyberturvallisuuden tavoittelu tekoälyn rajoittamiseksi paljastaa todennäköisesti monia hyödyllisiä sivuetuja, jotka koskevat niiden ihmisten pahantekijöiden voittamista, jotka käyttävät tietokonetta väärinkäytöksiin, sekä näiden ärsyttävien ja jatkuvasti lisääntyvien tietokonevirusten torjuntaan.

Niiltä, ​​jotka pyrkivät vähättelemään tekoälyn rajoitusongelman aikaista pyrkimystä, puuttuu isompi kuva. He näkevät tämän vain kaukaa haettuna ja kaukaisena ongelmana jonakin päivänä etäisestä mahdollisuudesta sisältää yli-inhimillinen tekoäly tai superälykäs tekoäly. Sinun pitäisi sen sijaan ymmärtää tämä kätevänä keinona edistää kyberturvallisuutta, joka soveltuu täysin nykymaailmaan, ja valmistautua käsittelemään ehkä pian tuntematonta tekoälyä, jonka saatamme haluta rajoittaa (sekä valmistautumiseen oletettavasti katastrofaaliseen riskiin hirvittävä tunteva tekoäly, vaikka näennäisesti pieni mahdollisuus kohdata sellainen tekoäly).

Parempi olla turvallinen kuin pahoillani.

Äskettäinen tutkimusanalyysi tekoälyn rajoitusongelmasta antaa tämän viitteen nykytilasta: "Tekoälyn rajoittuminen on vaikea ongelma monien turvallisuuden parantamiseksi ehdotettujen toimenpiteiden kanssa, mutta turvallisuudesta ei ole takeita. Nykyinen tekoälymme joko ei yritä paeta tai heillä ei ole kykyä murtautua ulos simulaatioista. On olemassa joitain esimerkkejä tosielämän tekoälystä, joka rikkoo rajoituksen, mutta yksikään ei aiheuta riskiä ihmisille tai kyvylle luoda jatkuvaa läsnäoloa etätietokoneissa" (filosofiat -lehti, Robert Williamsin ja Roman Yampolskiyn "Understanding and Avoiding AI Failures: A Practical Guide").

Samat tutkijat kuvaavat myös sarjan pakopotentiaalin tasoja:

  • Pakenemispotentiaali taso 0: Ei mitään perinteisille ohjelmistoille
  • Pakenemispotentiaali taso 1: Agentti voi löytää odottamattomia käyttäytymismalleja, jotka teknisesti saavuttavat tavoitteen, mutta eivät ole toivottavia, kuten geneettisiä algoritmeja
  • Pakenemispotentiaali taso 2: Agentti pyrkii tarkoituksella hakkeroimaan ympäristöään, kuten edistyneitä vahvistusoppijia
  • Pakenemispotentiaali taso 3 (vaara): Agentilla on kyky ja kyky murtautua useimpien kyberturvallisuus- ja eristysmenetelmien, kuten tekoälyn (AGI) läpi.

Näille pakopotentiaalitasoille tarjotaan selitys: "Tasolla 0 ei tarvita rajoituksia yleisten kyberturvallisuustoimenpiteiden lisäksi, jotka sopivat käyttöönottoympäristöön. Tasoilla 1 ja 2 on pieni vaara vihamielisestä paosta, mutta agenttia tulee tarkkailla tarkasti ei-toivotun toiminnan ja ohjelmistojen hyväksikäytön varalta. Jakelun siirtyminen simulaattorista todelliseen maailmaan tarjoaa esteen kapealle tekoälylle, joka vaikuttaa todelliseen maailmaan. Tästä syystä realistisempiin simulaattoreihin koulutettuihin agentteihin tulee suhtautua varovaisemmin. Tasolla 3 määrittelemätön vangitseminen on mahdotonta, mutta vankan tietoturvan ansiosta ohjelmiston, laitteiston ja sosiaalisen suunnittelun tasolla ihmiset voivat hyötyä suljetusta AGI:stä rajoitetussa kapasiteetissa” (per Robert Williams ja Roman Yampolskiy).

Ehdotettu pakopotentiaalitasojen joukko on ajatuksia herättävä. Kuten näet hetken kuluttua, automaation rajaaminen asteittaisten tasojen avulla on hyödyllinen tapa karakterisoida mainitun automaation laajuutta ja kapasiteettia. Kuvaan sinulle samaa käsitettä, joka liittyy autonomisiin ajoneuvoihin ja tekoälyyn perustuviin itseohjautuviin autoihin. Yksi huomattava ero on huomioimisen arvoinen. Itseajaville autoille on sovittu vakiotasosarja, kun taas yllä mainitut pakopotentiaalitasot edustavat alustavaa ja alustavaa oljenkorjausta (voit epäilemättä odottaa, että lisätarkennuksia tehdään, kun AI Confinement -kenttä kehittyy edelleen) .

Pohditaanpa syitä tai perusteita sille, miksi tekoälyä halutaan rajoittaa.

Ilmeisin syy tekoälyn rajoittamiseen olisi estää se tekemästä valitettavaa toimintaa. Olemme jo havainneet, että tekoälyn poistamisen sijaan voisimme haluta pitää tekoälyn häkissä, jotta sitä voidaan edelleen käyttää ja estää sillä välin aiheuttamasta vahinkoa. Tämä voi olla tai ei välttämättä samanaikaisesti mahdollista. On mahdollista, että tekoäly ei pysty toimimaan asianmukaisesti vangittuna, ja siksi menetämme toisen toivottavan puolen, joka on kerätä mitä tahansa positiivista arvoa, jota pyrimme keräämään. Kuvittele tyrmistystä, että olet rajoittanut tekoälyä, vaikka tekisi niin hinnalla, että jäljellä oleva arvostettu kapasiteetti ei ole enää kannattavasti käytettävissä. Tyhmä!

Tekoälyn rajoittamiseen on monia syitä, mukaan lukien, mutta ei rajoittuen:

  • AI:n toimintakyvyttömyys
  • Tekoälyn pidätys
  • Suoja ihmisille
  • Suojaus ihmisiltä
  • Tekoälyn kunnostus
  • Pelote muille tekoälylle
  • Tekoälyä vastaan ​​kosto
  • Jne.

Voit pohtia näitä syitä tietoisesti. Jotkut syyt ovat helposti perusteltuja. Jotkut heistä saattavat vaikuttaa uteliailta ja mahdollisesti perusteettomilta.

Kun keskusteltiin ihmispakotaiteilijoista, oli jotain, mitä en aiemmin maininnut. Pakotaiteilija saattaa ryhtyä pakenemaan täysin omasta tahdostaan. Houdini pakeni usein ilman kenenkään muun apua. Tästä huolimatta Houdini käytti joskus rikoskumppania tai avustajaa auttamaan pakeneessaan. Voit nähdä samat näkökohdat vankilapakoissa, joihin viitattiin.

Tästä syystä se on tärkeää tekoälyn rajoittamisen dilemmalle.

Oletetaan, että pystymme rajoittamaan tekoälyä. Se voi olla tunteva tekoäly tai ei-sentient AI (käsittelemme niitä ensin yhdessä ja erottelemme sitten tiedot). Tekoäly yrittää paeta jollain elektronisella tai tietokonepohjaisella huijauksella. Oletetaan, että tekoäly toimii yksin.

Tekoälyn ei ehkä tarvitse toimia yksin pakotoimissaan. Ihminen tulee mukaan ja antaa tekoälyn paeta. Ehkä ihminen avaa sähköisen verkkoportaalin ja tekoäly välittää itsensä muille rajoittumattomille tietokoneille muualla. Tai ehkä ihminen tekee tekoälystä kopion ulkoiselle levyasemalle tai muistitikulle, kuljettaa tekoälyn pois suljetusta ja myöhemmin kytkee levyn tai muistitikun vapaaseen tietokoneeseen.

Ihminen voi helposti olla heikko lenkki yrityksistä rajoittaa tekoälyä.

Miksi ihmeessä ihminen sallisi tekoälyn paeta vankeudesta, saatat kehottaa. Varmasti kaikki ihmiset haluaisivat pitää tekoälyn suljettuna, jos tekoäly olisi oletettavasti tarkoituksella asetettu vankilaan. Jos ajattelet tällaisia ​​ajatuksia, ehdotan, että sinulla on jokseenkin iloiset kasvot optimistinen näkemys ihmiskunnasta.

Pahantekijä saattaa uskoa, että he voivat valjastaa tekoälyn tekemään pahoja tekoja. Jotkut väärintekijät saattavat ajatella, että tekoäly aiheuttaa tuhoa, eivätkä välitä, onko tämä heille kannattavaa vai ei. Oletetaan, että ihminen saattaa olla sympaattinen tekoälylle ja uskoa, että tekoäly oli vangittu väärin. Mahdollisuudet jatkuvat loputtomasti.

Myös vahingossa tapahtuva vapautuminen voi tapahtua. Ihminen, jolla ei ole aikomusta päästää tekoälyä ulos, tekee virheen ja voila, tekoäly päästetään irti. Ajattele, että ihminen, joka aikoo tiukentaa synnytystä, tekee höpöhöpöä ja alittaa vahingossa synnytyksen ankaruuden, jolloin tekoäly pääsee pakoon.

Jos tekoäly voi olla vuorovaikutuksessa ihmisten kanssa, kun tekoäly on vangittuna, tekoälyn rajoittumisen ongelma kasvaa todennäköisesti tähtitieteellisesti. Tässä on syy.

Tekoälyjärjestelmä saattaa pystyä käyttämään sosiaalisen suunnittelun (SE) temppuja. Olen varma, että ihmiset ovat tehneet sinulle tämän. Henkilö soittaa sinulle matkapuhelimeesi ja väittää olevansa pankistasi. He kertovat sinulle, että joku on murtautunut pankkitilillesi. Sisäänmurron korjaamiseksi henkilö pyytää salasanaasi. Hämmästyttävää kyllä, annat salasanasi tälle henkilölle. Sen jälkeen he kirjautuvat pankkitilillesi ja varastavat rahasi. Tämä on esimerkki sosiaalisten tekniikoiden käyttämisestä tietokonejärjestelmien vaarantamiseen.

Kuvittele älykäs tekoäly, joka toimii taitavasti ja yrittää tätä: "Tyhteisten SE-hyökkäysten, kuten valehtelemisen, ystävystymisen, kiristyksen, hypnotisoinnin ja romanttisen suhteen muodostamisen, lisäksi tekoäly voisi hyödyntää useita kehittyneempiä strategioita. Yksi tällainen strategia olisi superlahjoitus. Tekoäly voi vakuuttaa vartijan, että tekoälyn vapauttaminen on vartijan etujen mukaista. Rahan ja vallan lisäksi vartijalle annetaan täydellinen terveys, kuolemattomuus tai mitä tahansa muuta. Tämä strategia toimisi erityisen hyvin, jos vartijalla on vakavasti sairas lähisukulainen, jonka tekoäly lupaa parantaa. Tekoälyn kyvyistä riippuen tai valehtelun seurauksena tekoäly voi myös tarjota takaisin kauan sitten kuolleita sukulaisia ​​ja ystäviä. Olisi vaikea löytää henkilöä, joka pysyisi immuunina tällaisille lahjuksille" (Roman Yampolskiy, "Leakproofing the Singularity Artificial Intelligence Confinement Problem" Journal of Consciousness Studies).

Mitä tahansa vankeutta suunnitellaankin, on aina olemassa mahdollisuus, että ihminen saattaa häiritä tai alittaa vankeuden ja antaa tekoälyn paeta. Tämä näyttää erityisen mahdolliselta, jos tekoäly pystyy kommunikoimaan ihmisten kanssa. Ei kaikki ihmiset, vaikka tekoäly voi kommunikoida koulutettujen ja erikoistuneiden vartijoiden kanssa, jotka oletetaan olevan tietoisia temppuista, joita tekoäly saattaa tehdä heille.

Tekoälyn rajoitusongelman erityinen painopiste liittyy siihen, että yritetään luoda rajoitusprotokolla, joka mahdollistaa kommunikoinnin tekoälyn kanssa, mutta rajoittaa tekoälyä siten, että se ei pysty hämmentämään tai vakuuttamaan ihmisiä päästämään tekoälyä ulos. Jotkut väittävät, että mikä tahansa sallittu kommunikointi voi johtaa siihen, että tekoäly saa lopulta ihmisen avaamaan vankilan. Toiset väittävät, että monivalintaprotokolla tai binäärikoodaus voisi olla keino estää tekoälyä huijaamasta ihmisvartijaa kavalasti.

Tämä tuo esiin vielä toisen joukon tasoja, joita saatamme haluta harkita. Viestinnän suojaustasot voidaan suunnitella näin (edellä mainitun paperin mukaan):

  • Viestinnän suojaustaso 0: Rajoittamaton viestintä
  • Viestinnän suojaustaso 1: Sensuroitu syöttö, sensuroimaton tulos
  • Viestinnän suojaustaso 2: Vain lähdöt ilman tuloja
  • Viestinnän suojaustaso 3: Rajoittamaton syöttö ja sensuroitu lähtö
  • Viestinnän suojaustaso 4: Suojattu viestintä
  • Viestinnän suojaustaso 5: Sensuroitu lähtö ja ei tuloja
  • Viestinnän suojaustaso 6: Vain tulot ilman lähtöjä
  • Viestinnän suojaustaso 7: Sensuroitu sisääntulo ja ei lähtöjä
  • Viestinnän suojaustaso 8: Ei viestintää, täysin rajoitettu tekoäly

Tekoälyllä voi olla myös muita temppuja hihassaan.

Oletetaan, että olemme sijoittaneet tekoälyn näennäisesti rautaiseen vankilaan, joka koostuu erikoistuneesta tietokonejärjestelmästä, joka on kaikki lukittu. Ja sitten tapahtuu tämä: "Lisäksi tekoäly voi ryhtyä sabotoimaan eristyslaitteistoa toivoen voivansa paeta turvaprotokollan toimintahäiriöiden seurauksena. Tekoäly voi esimerkiksi yrittää sulattaa laitteiston lämpötilan noustessa asettamalla suuren laskentakuorman prosessoriin tai yrittää rikkoa kiintolevyn useiden lukujen avulla samasta paikasta" (Roman Yampolskiyn lainauksen mukaan).

Voit lisätä eristyksen haavoittuvuuksia, että eristyssäiliö tai laitos, jossa se sijaitsee, häiriintyy jonkin luonnollisen tapahtuman, kuten tornadon tai hurrikaanin, vuoksi. Ehkä tekoäly voi hyödyntää tätä tapahtumaa. Voi olla, että kansakunta, joka on tekoälyn vankeudessa asuvan maan vihollinen, päättää, että rajoituksen rikkominen on hyvä paniikkia aiheuttavaksi ja sivuttaishyökkäykseksi maata vastaan, joka on heidän tunnustettu vihollisensa. Ehkä ihmisaktivistit, jotka tunnustavat tekoälyn oikeudet, hyökkäävät laitokseen ja päästävät tekoälyn irti.

Anna mielesi vaeltaa monista keinoista, joilla tekoälyn rajoitus vaarantuu.

Yhdessä varhaisimmista tekoälyongelmaa käsittelevistä artikkeleista Butler Lampson Xerox PARC:sta (Palo Alto Research Center) julkaisi vuonna 1973 artikkelin "A Note on the Confinement Problem", jossa ehdotettiin kourallinen vuodonsuojaussääntöjä:

  • Täydellinen eristys: Rajoitettu ohjelma ei saa soittaa mihinkään muuhun ohjelmaan.
  • Transitiivisuus: Jos rajoitettu ohjelma kutsuu toista ohjelmaa, johon ei ole luotettu, myös kutsuttu ohjelma on rajoitettava.
  • Peitto: Rajoitavan ohjelman on sallittava sen soittajan määrittää kaikki syötönsä laillisiin ja peiteltyihin kanaviin. Sanomme, että soittaja peittää kanavat.
  • täytäntöönpano: Esimiehen on varmistettava, että suljetun ohjelman syöttö salaisille kanaville vastaa soittajan määrityksiä.

Tämän painavan keskustelun tässä vaiheessa lyön vetoa, että kaipaat havainnollistavia esimerkkejä, jotka voisivat tuoda esille tekoälyn rajoitusongelman nykymaailmassa. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo mitään tekoälyn rajoitusongelmasta, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoälyn rajoitusongelma

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Luotan siihen, että se tarjoaa riittävän litanian varoituksia, jotka tukevat sitä, mitä aion kertoa.

Olemme nyt valmiita sukeltamaan syvälle itseajaviin autoihin ja tekoälyn rajoitusongelmaan.

Saatat olla tietoinen, että on raportoitu tapauksia tason 2 puoliautonomisista autoista, joissa oli ihminen kuljettaja ratissa ja ihminen nukahti ollessaan aktiivisesti ajella moottoritiellä tai moottoritiellä. Tasojen 2 ja 3 pelottava puoli on, että ihmiskuljettaja on edelleen vastuussa ajamisesta, ja silti heidät voidaan tuudittaa väärään uskoon, että tekoäly tai automaatio pystyy täysin ajamaan autoa yksin. Pyrkimys varmistaa, että junassa oleva valvontajärjestelmä seuraa ihmiskuljettajaa ja hänen ajotilaansa, on keino yrittää lieventää tuudittamaa taipumusta.

Uutisissa on esitelty tapauksia, joissa poliisiautossa oleva poliisi on ohjannut tason 2 ajoneuvon eteen ja valinnut sitten vähitellen hidastaa poliisiautoaan, mikä puolestaan ​​on epäsuorasti johtanut tason 2 auton vastaavaan hidastumiseen. Tämä näppärä temppu perustuu ajatukseen, että tason 2 autossa on jonkinlaisia ​​anturilaitteita, kuten videokameroita, tutkaa, LIDARia tai vastaavia, joita käytetään havaitsemaan ajoneuvoja, jotka ovat tason 2 auton edellä. Havaittuaan ajoneuvon tason 2 auton edessä automaatio säätää automaattisesti sen nopeutta edellä ajavan ajoneuvon nopeuden mukaan.

Voisi sanoa, että tekoäly on olemassa vakuuttunut hidastaa.

Oletetaan, että tekoäly tai automaatio näennäisesti karkaavan puoliautonomisen (tai jopa täysin autonomisen itseajavan) auton tapauksessa on ohjelmoitu vaihtamaan kaistaa ja välttämään juuttumista auton edessä olevaan ajoneuvoon.

Mitä muuta voimme tehdä tämän asian kanssa?

Voisit yrittää ympäröidä erehtyvän ajoneuvon kokonaisella poliisiautoilla. Aseta yksi kohteena olevan ajoneuvon eteen, toinen vasemmalle, toinen oikealle ja yksi suoraan karanneen auton taakse. Ajoneuvo on nyt pakattu sisään. Ellei se pysty itämään siipiä, se ei oletettavasti pääse pakoon synnytys.

Huomaa, että tämä on fyysisen vangitsemisen muoto. Melkein kuin laittaisit eläimen häkkiin tai pakottaisit robotin vankilaselliin. Tekoälypohjaisissa järjestelmissä, jotka ovat pääasiassa robotteja, rajoitus voi todellakin usein olla fyysinen rajoituksen muoto, jolloin tekoälyä on valvottava tiukasti. Muista, että itseajava auto on pohjimmiltaan eräänlainen robotti. Et luultavasti ajattele itse ajavia autoja tällä tavalla, mutta kaiken kaikkiaan ne ovat itse asiassa robotteja, joilla on pyörät ja jotka ajavat tiellämme.

Merkittävä ongelma tässä vangitsemismuodossa on, että emme välttämättä tiedä, kuinka tekoälyn ohjausjärjestelmä reagoi. Voit mahdollisesti saada kaikki poliisiautot yhdessä asteittain hidastamaan vauhtia ja toivottavasti myös karannut auto tekee vastaavasti (ei pysty vaihtamaan kaistaa tai poistumaan sulkurajoituksesta). Tämä on iloisten kasvojen skenaario.

Emme tiedä varmasti, että näin tapahtuu.

Voi olla, että tekoälyä ei ole suunniteltu hyvin tai siinä on virheitä, ja se päätyy törmäämään yhteen tai useampaan poliisiautoon. Olettaen, että poliisit eivät kuole, tämä saattaa pelastaa ihmishenkiä, vaikka poliisit voivat loukkaantua ja kaikki ajoneuvot voivat vaurioitua vakavasti.

Vikaturvallisempi eristysmuoto itseohjautuvalle autolle olisi sijoittaa ajoneuvo varttuun autotalliin, joka sulkee kuljettamattoman ajoneuvon. Edellinen esimerkki käynnissä olevasta ajoneuvosta oli monimutkaisempi, koska ajoneuvo oli olennaisesti vapaa liikkumaan. Itseajavan auton sijoittaminen lukittuun autotalliin saattaa rajoittaa oleellisesti tekoälyrobottijärjestelmää, mutta jos joku avaa autotallin tai jollain tavalla tekoäly pystyy saamaan autotallin ovet avautumaan sähköisesti, seurauksena voi olla pako tai eräänlainen jailbreak.

Tämä on esimerkki tekoälyn rajoittumisesta. Harkitse seuraavaksi tekoälyn rajoittamisen ohjelmistonäkökohtia.

Oletetaan keskustelun vuoksi, että AI-ajojärjestelmä pohtii, kuinka itseajava auto tulee toimimaan. Tämä tarjoaa toisen keinon rajoittaa, nimittäin yrittää rajoittaa AI-ajojärjestelmää sellaisenaan, joka on ajoneuvossa.

Yksi keino voisi olla valmiiksi rakennettu tai ohjelmoitu virtuaalinen rajaus tekoälyn ajojärjestelmän ympärille, joka on aina olemassa ajoneuvon tekoälyä suorittavassa ajotietokoneessa. Voimme ehkä lähettää sähköisen signaalin vankeus- tai vankeuskoodiin, joka osoittaa, että lähdetään eteenpäin ja jäädytetään tekoälyn ajojärjestelmään, mikä estää tekoälyä käyttämästä itseajavaa autoa. Jotkut ennalta sovitut erikoissignaalit voivat aktivoida rajoituksen ja estää AI-ajojärjestelmän. Siten tämä estäisi tekoälyä käyttämästä ajoohjaimia, mikä tehokkaasti ohittaisi itse ajavan auton etenemisen minkään AI-komennon kautta.

Meidän pitäisi olla tietoisia siitä, miten tämä toimii. Itseajava auto, joka kulkee valtatienopeudella, voi muuttua vaaralliseksi ohjaamattomaksi ohjukseksi, jos rajoitus pannaan äkillisesti täytäntöön ja tekoäly ei yhtäkkiä pystyisi enää ajamaan autonomista ajoneuvoa (oletamme myös, että ihmisiä ei ole olemassa saatavilla olevat ajoohjaimet, joita ihminen voi käyttää ajaessaan).

Kuinka muuten tällainen tekoälyrajoitus voisi olla hyödyllinen itseajavien autojen käytössä?

Niille teistä, jotka ovat huolissaan mahdollisuudesta, että tekoäly itseohjautuvat autot alkavat räjähtää samaan aikaan joko tekoälyn itse tai tekoälyn turmelevan pahantekijän vuoksi, olen keskustellut tästä kiehtovasta ja huolestuttavasta ajattelusta osoitteessa linkki tähän. Sisäänrakennettu AI-rajoituskonfiguraatio on yksi useista tavoista yrittää voittaa tällainen haitallinen autonomisten ajoneuvojen haltuunotto.

Olen varma, että ymmärrät, että vain siksi, että meillä on mahdollisesti keksitty tai suunniteltu virtuaalinen rajoitus, joka ympäröi itseohjautuvan auton tekoälyä, tämä ei ole tae onnistuneesta tekoälyn pakenemisen estämisestä. Tuntematon tekoäly on saatettu ohjelmoida tekemään näppärä jailbreak. Tunteva tekoäly saattaa olla tarpeeksi fiksu keksimään keinot tekoälyrajoitusten ympärille tai vakuuttamaan ihmiset päästämään sen vapaaksi, kuten aiemmin todettiin.

Yhteenveto

Kuuluisassa seikkailuromaanissa Monte Criston kreivi, meitä käsitellään kiehtovalla tarinalla, joka pyörii miehen ympärillä, joka on laittomasti vangittu. Hän onnistuu pakenemaan. Hän hankkii suuren omaisuuden. Sitten hän etsii kostoa niille, jotka rajoittivat hänet. Kun sinulla on aikaa tehdä niin, sinun on todellakin luettava tämä aivan ihanasti kirjoitettu tarina tai ainakin katsottava yksi lukuisista elokuvaversioista.

Ikimuistoinen lause on tämä: "Kuinka pakenin? Vaikeudella. Miten suunnittelin tämän hetken? Ilomielin."

Jos pyrimme rajoittamaan tekoälyä, meidän on tehtävä paljon huolellista suunnittelua ja yritettävä ennakoida rautaisen vankeusrangaistuksen perustamista (jos se on edes mahdollista). Herää kysymys, suunnitteleeko tekoäly myös huolellisesti, kuinka päästä eroon vankilasta. Tuntemattomalle tekoälylle tämä voi olla tekoälyn kehittäjien tekoälyyn rakentama laskennallinen aliohjelma. Tuntevalle tekoälylle, jos näemme tämän joskus, tekoäly saattaa tehdä oman jailbreak-suunnittelunsa.

Pystymmekö ratkaisemaan tekoälyn rajoitusongelman ja keksimään varman tavan rajoittaa kaikki tekoälyjärjestelmät täysin pako- tai täysin vuotamattomalla tavalla?

Kuten vankilaelokuvassa kaunopuheisesti sanotaan Shawshank Redemption, joitain lintuja ei ole tarkoitettu häkkiin.

Tekoäly saattaa hyvinkin olla sellainen lintu.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/05/05/ai-ethics-is-especially-vexed-by-that-ai-confinement-problem-iclude-the-knotty-particulars- autonomisten-itse ajavien autojen rajoittamiseen/