Tekoälyn etiikka ja laki sekoittuvat tekoälyn hajoamiseen tai täydelliseen tekoälyn tuhoamiseen keinona tekoälyn väärinkäytöksiin, mahdollisesti jopa huonosti käyttäytyviin itseajaviin autoihin

Voisi sanoa, että yhteiskunta näyttää olevan lähes pakkomielle tuhoutumattomuudesta.

Pidämme elokuvista ja scifi-tarinoista, jotka esittelevät tuhoutumattomilta vaikuttavia yli-ihmisiä. Ne meistä, jotka olemme tavallisia ei-yli-inhimillisiä ihmisiä, haaveilevat muuttuvansa taianomaisesti tuhoutumattomiksi. Yritykset markkinoivat tuotteita väittäen, että niiden kehutut tavarat ovat oletettavasti tuhoutumattomia.

Kuuluisa koomikko Milton Berle kertoi aika hauskan vitsin esineistä, joiden väitetään olevan tuhoutumattomia: ”Ostin pojalleni tuhoutumattoman lelun. Eilen hän jätti sen ajotielle. Se rikkoi autoni." Se on meluisa puolen jakaja niille, jotka loputtomasti yrittävät löytää jotain, minkä voitaisiin jotenkin väittää olevan tuhoutumaton.

Otan tämän melko kiehtovan aiheen esille käsitelläkseni asiaa, joka on nopeasti noussut tärkeänä näkökohtana tekoälyn (AI) tulon yhteydessä. Esitän kiistanalaisen kuplivan aiheen yksinkertaisena kysymyksenä, johon on ehkä yllättäen varsin monimutkainen vastaus.

Lyhyesti sanottuna, onko tekoäly täysin herkkä tuhoutumiselle vai voisiko olla tekoälyä, jonka voidaan väittää olevan tuhoutumaton tai sen lähellä?

Tämä on keskeinen näkökohta, joka perustuu viimeaikaisiin ponnisteluihin tekoälyn oikeudellisiin ja eettisiin seurauksiin. Kuten näette hetken kuluttua, oikeudellisesti ovet avautuvat tekoälyjärjestelmän tuhoamiseen keinona tarjota oikeussuojakeino jonkin asiaankuuluvan laittoman tai epäeettisen virheen seurauksiin. Huomaa, että tekoälyn etiikka painaa myös harkittua tekoälyn tuhoamista tai vastaavaa tekoälyn poistamista. Jatkuva ja laaja kattavuus tekoälyn eettisyydestä ja eettisestä tekoälystä, katso linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Mieti tätä koko ongelmaa hetkeksi.

Pitäisikö meidän yrittää poistaa tai tuhota tekoäly?

Ja voimmeko tehdä sen, vaikka haluaisimmekin tehdä niin?

Aion avata kiistanalaisen aiheen ja esitellä joitain esimerkkejä korostaakseni kompromisseja, jotka liittyvät tähän järkyttävään pulmaan.

Laitetaan ensin pöytään jotain kieltä varmistaaksemme, että laulamme samaa säveltä. Sopivan ylevä tapa ilmaista aihe on ilmaista, että pyrimme toteuttamaan AI Disgorgement. Jotkut käyttävät myös vaihtokelpoisesti käsitettä Algoritminen hajoaminen. Keskustelun vuoksi aion rinnastaa nämä kaksi tunnuslausetta. Teknisesti voit vakuuttavasti väittää, etteivät ne ole yksi ja sama. Mielestäni keskustelu täällä voi riittää hämärtämällä eron vaatimattomasti.

Tästä huolimatta et ehkä ole ollenkaan perehtynyt sanaan "disgorgement", koska se syntyy yleensä oikeudelliseen kontekstiin. Useimmat lakisanakirjat kuvaavat "purkauksen" tekona luopua jostain laillisen vaatimuksen tai pakotuksen vuoksi.

Huomionarvoinen artikkeli lehdessä Yale Journal of Law & Technology Federal Trade Commissionin (FTC) komissaari Rebecca Slaughter kuvaili asiaa seuraavasti: "Yksi FTC:n innovatiivinen korjauskeino äskettäin käyttöön otettu algoritminen purkaminen. Lähtökohta on yksinkertainen: kun yritykset keräävät tietoja laittomasti, niiden ei pitäisi pystyä hyötymään tiedoista tai mistään sen avulla kehitetystä algoritmista” (elokuu 2021).

Samassa artikkelissa asiaa korostetaan edelleen korostamalla joitain aikaisempia samankaltaisia ​​tapauksia: "Tätä uutta lähestymistapaa käytettiin viimeksi FTC:n tapauksessa Everalbumia vastaan ​​tammikuussa 2021. Siellä komissio väitti, että yritys rikkoi kuluttajille antamiaan lupauksia olosuhteissa, joissa se ottaisi käyttöön kasvojentunnistusohjelmiston. Osana sovintoratkaisua komissio vaati yritystä poistamaan väärin hankittujen tietojen lisäksi kaikki kasvojentunnistusmallit tai -algoritmit, jotka on kehitetty käyttäjien valokuvilla tai videoilla. Valtuus hakea tämän tyyppistä oikeussuojakeinoa perustuu komission toimivaltaan määrätä lainrikkomukseen kohtuullisesti räätälöityjä korvauksia. Tämän innovatiivisen täytäntöönpanotavan pitäisi lähettää selkeä viesti yrityksille, jotka harjoittavat laitonta tiedonkeruuta tekoälymallien kouluttamiseksi: Ei kannata."

Juuri äskettäin purkausmenetelmän lisäkäytöt ovat tulleet etualalle. Harkitse tätä raportointia tämän vuoden maaliskuussa: "Federal Trade Commission on kamppaillut vuosien ajan löytääkseen tapoja torjua harhaanjohtavia digitaalisia datakäytäntöjä käyttämällä rajallisia täytäntöönpanovaihtoehtoja. Nyt se on laskeutunut sellaiselle, jolla voi olla suuri vaikutus teknologiayrityksiin: algoritmiseen tuhoamiseen. Ja koska virasto muuttuu aggressiivisemmiksi tekniikan suhteen ottamalla hitaasti käyttöön tämän uudentyyppisen rangaistuksen, sen soveltaminen sovintoratkaisuun kolmannen kerran kolmen vuoden aikana voisi olla viehätysvoima. 4. maaliskuuta antamassaan sovintomääräyksessä virasto vaati, että WW International, joka tunnettiin aiemmin nimellä Weight Watchers, tuhoaa algoritmit tai tekoälymallit, jotka se rakensi käyttämällä Kurbo-terveellisen ruokavalion sovelluksen kautta kerättyjä henkilötietoja alle 8-vuotiailta lapsilta ilman vanhempien lupaa. Kate Kayen artikkeli, 14. maaliskuuta 2022, Protokolla verkkoblogi).

Jottei luulisi, että tämä hajoamisidea on vain Yhdysvaltojen näkemys, useat Euroopan unionin (EU) tekoälylakiehdotuksen arviot viittaavat siihen, että sen laillinen kieli voidaan tulkita mahdollistavan tekoälyjärjestelmän "poistamisen" (eli jotkut sanoisi, että tämä merkitsee varmasti tekoälyn tuhoutumista, poistamista tai hajottamista). Katso tiedotukseni osoitteessa linkki tähän.

Suuri osa tästä tekoälyjärjestelmän poistamisesta tai tuhoamisesta puhumisesta keskittyy yleensä tietyntyyppiseen tekoälyyn, joka tunnetaan nimellä Machine Learning (ML) tai Deep Learning (DL). ML/DL ei ole ainoa tapa tehdä tekoälyä. Siitä huolimatta ML/DL:n lisääntyvä saatavuus ja sen käyttö ovat aiheuttaneet melkoista kohua, koska se on sekä hyödyllistä että joskus myös surkeaa.

ML/DL on vain eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Tekoäly ja erityisesti ML/DL:n laaja leviäminen on saanut yhteiskunnan hermostumaan tekoälyn happaman suunnittelun eettisistä perusteista. Saatat olla tietoinen, että kun tämä uusin tekoälyn aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Väärien hillitsemiseen tähtäävien äänekkäiden laillisten pyrkimysten lisäksi on olemassa myös konkreettista sysäystä tekoälyn etiikkaan omaksuakseen tekoälyn ilkeyden. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Miten tämä tapahtuu koneoppimisen käytössä?

No, suoraan sanottuna, jos ihmiset ovat historiallisesti tehneet kuviollisia päätöksiä, joissa on mukana epäsuotuisia ennakkoluuloja, on todennäköistä, että ML/DL:n "kouluttamiseen" käytetyt tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää sokeasti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sananlaskua roskat sisään roskat pois (GIGO). Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Tästä syystä tekoälyn eettiset periaatteet ovat nousseet keskeiseksi kulmakiveksi niille, jotka luovat, harjoittavat tai käyttävät tekoälyä. Meidän pitäisi odottaa tekoälyn tekijöiden omaksuvan tekoälyetiikkaa ja pyrkivän tuottamaan eettistä tekoälyä. Samoin yhteiskunnan tulee olla tarkkana, että mikä tahansa vapautettu tai käyttöön otettu tekoäly noudattaa tekoälyn eettisiä sääntöjä.

Auttaaksesi havainnollistamaan tekoälyn eettisiä sääntöjä, harkitse Vatikaanin asiakirjassa ilmoittamaa sarjaa Rooma kutsu tekoälyn etiikkaan ja joita olen käsitellyt perusteellisesti linkki tähän. Tämä kiteyttää kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Palaan hetken kuluttua AI Disgorgement -aiheeseen ja huomautan, että meidän on erotettava tekoälyn tuhoaminen tai poistaminen kahteen eri luokkaan: (1) tunteva tekoäly ja (2) ei-sentoiva tekoäly. Tehdään pohjaa näille kahdelle kategorialle, jotta olemme valmiita jatkamaan tekoälyn hajoamista.

Ole täysin tietoinen siitä, että nykyään ei ole aistivaa tekoälyä.

Meillä ei ole tuntevaa tekoälyä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistivan tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulariteetiksi, katso artikkelini osoitteessa linkki tähän). Tekoälyalaan vakavasti uppoutuneille mikään näistä edellä olevista lausunnoista ei ole yllättävää tai nosta kulmakarvoja. Samaan aikaan on suuria otsikoita ja liiallista koristelua, jotka saattavat hämmentää ihmiset olettamaan, että meillä joko on tunteva tekoäly tai että olemme jonain päivänä sentioivan tekoälyn kynnyksellä.

Huomaa, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat tuntua samanlaisilta kuin ihmisen kyvyt, mutta todellisuus on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

Kaiken kaikkiaan käytämme nykyään tuntematonta tekoälyä, ja joskus meillä saattaa olla tuntevaa tekoälyä (mutta se on puhtaasti spekulaatiota). Molemmat tekoälytyypit ovat selvästikin tekoälyn etiikkaan liittyviä huolenaiheita, ja meidän on pyrittävä kohti eettistä tekoälyä riippumatta siitä, miten se on muodostettu.

Tuntevaan tekoälyyn liittyvän AI Disgorgementin tapauksessa voimme villisti pelata lähes loputtomien lajikkeiden arvauspeliä. Ehkä tunteva tekoäly on kognitiivisesti ihmisten kaltainen ja omaa samanlaisia ​​henkisiä kykyjä. Tai voisimme olettaa, että tunteva tekoäly on yli-inhimillistä ja ylittää ajattelumuotomme. Älykäs tekoäly näyttäisi olevan huippuäly, mikä saattaa olla niin älykästä ja ovelaa, että emme voi nykyään edes kuvitella valtavaa ajattelukykyä. Jotkut ehdottavat, että mielemme on vaatimaton verrattuna. Tämä super-duper AI pyörittää renkaita ympärillämme tavalla, joka on verrattavissa siihen, miten voimme nykyään ajatella muurahaisia ​​tai toukkia.

Jos osoittautuu, että tekoäly on tunteva, olemme mahdollisesti valmiita voitelemaan sellaista tekoälyä jollakin oikeushenkilöllisyyden muodolla, katso analyysini osoitteessa linkki tähän. Ajatuksena on, että tarjoamme tekoälylle ihmisoikeudet. Ei ehkä sanatarkasti. Ehkä erityisiä oikeuksia. Kuka tietää?

Joka tapauksessa voit loihtia esiin provosoivan vaikutelman, että emme voi vain lyhyesti pyyhkiä pois tai tuhota tuntevaa tekoälyä, vaikka voisimmekin tehdä niin teknisesti. Tunteva tekoäly voidaan tulkita todelliseksi eläväksi organismiksi kognitiivisen kapasiteetin kannalta ja jolla on synnynnäinen "oikeus elää" (riippuen elossa olemisen määritelmästä). Lopulta siihen saattaa liittyä määrätty oikeusprosessi. Tämä sisältää sen, että emme voi välttämättä käyttää "kuolemanrangaistusta" tuntevalle tekoälylle (voi, odota vain, kunnes me yhteiskuntana sotkeudumme sellaiseen yhteiskunnalliseen keskusteluun).

Epäilen, olisimmeko halukkaita ottamaan saman tekoälyn eettisen asenteen tuntemattomalle tekoälylle. Vaikka jotkut yrittävät väittää, että nykypäivän tuntematon tekoäly pitäisi luokitella oikeushenkilöllisyyteen liittyväksi variantiksi, tämä näyttää olevan jyrkän ylämäkeen taistelu. Voiko nykyaikaiselle ohjelmistolle, joka ei ole tunnollinen, myöntää lailliset oikeudet ihmisten tai jopa eläinten kanssa? Se tuntuu varmasti venyttelyltä (mutta on kannattajia, jotka pyrkivät kiihkeästi tähän, katso artikkelini osoitteessa linkki tähän).

Tässä on mitä tämä kaikki tarkoittaa.

Olettaen, että emme tunnusta nykypäivän tuntemattomalle tekoälylle persoonallisuuden kuninkaallista laillista voitelua, valinta poistaa tai tuhota tällainen tuntematon tekoäly olisi ehdottomasti emme voidaan kohtuudella rinnastaa elävän organismin tuhoamiseen. Tuntemattoman tekoälyn pyyhkiminen pois ei ole muuta kuin sen treffisovelluksen poistaminen älypuhelimesta tai ylimääräisten kuvien poistaminen matkastasi ihmemaametsään kannettavalta tietokoneeltasi. Voit poistaa tai "tuhota" nuo datan ja ohjelmiston osat ilman, että sinulla on paha omatunto ja ylittämättä lakia vahingoittamalla elävää olentoa.

Voit olettaa, että tämä lausunto ratkaisee tiivistetysti AI Disgorgement -ongelman, joka liittyy ei-aistilliseen tekoälyyn.

Anteeksi, maailma ei ole koskaan niin suoraviivainen kuin miltä se aluksi näyttää.

Valmistaudu käänteeseen.

Oletetaan, että loimme tuntemattoman tekoälyn, joka johdatti meitä kohti kykyä parantaa syöpää. Tekoälyn kehittänyt yritys teki jotain muuta, mitä yrityksen ei olisi pitänyt tehdä, ja se on joutunut vakaviin oikeudellisiin ongelmiin eri viranomaisten kanssa. Osana yritykselle määrättyä korjaustoimenpidettä yritys on pakotettu poistamaan tekoäly kokonaan, mukaan lukien kaikki tekoälyyn liittyvät tiedot ja asiakirjat.

Hallitus otti yrityksen tehtäväkseen ja vakuutti, että nämä väärintekijät eivät voi enää hyötyä keksimästään tekoälystä. Valitettavasti olemme ehkä ampuneet samalla hengityksellä omaa jalkaamme, koska tekoälyllä oli kykyjä, jotka johtivat meidät syövän parantamiseen. Lopulta heitimme vauvan ulos kylpyveden kanssa.

Asia on siinä, että meillä voi olla useita vilpittömässä mielessä syitä pitää tekoäly koskemattomana. Sen poistamisen tai salaamisen sijaan saatamme haluta varmistaa, että tekoäly pysyy ehjänä. Tekoälyn sallitaan suorittaa joitakin toimintojaan rajoitetulla tavalla. Haluamme hyödyntää kaikkea, mitä tekoäly voi tehdä hyväksemme.

Kätevä sääntö näyttäisi sitten olevan, että tekoälyn hajoamisen käsitteen pitäisi perustua kontekstin ja herkkyyden vaikutelmaan sen suhteen, milloin tämä korjauskeino on sopivasti sovellettavissa. Joskus se saattaa olla täysin käyttökelpoinen, kun taas toisissa tapauksissa ei. Voit myös yrittää löytää tapoja jakaa omena, ehkä säilyttää jonkin hyödyllisenä pidetyn tekoälyn osan samalla kun pyrit tuhoamaan tai poistamaan ne osat, jotka katsotaan korjauskeinon soveltamisalaan kuuluvaksi.

Tietenkin paloittainen poistaminen tai tuhoaminen ei ole myöskään pala kakkua. Voi olla, että osa, jonka haluat säilyttää, on kiinteästi kudottu osaksi, jonka haluat tuhota. Näiden kahden erottaminen voi olla ongelmallista. Lopulta saatat joutua luopumaan poistamisesta ja yksinkertaisesti suostumaan antamaan koko jäädä, tai saatat joutua heittämään pyyhkeen ja tuhoamaan koko pakkauksen ja kaboodle.

Se kaikki riippuu.

On aika ottaa toinen painava harkinta.

Olemme tähän mennessä käsitelleet asioita, jotka ovat perustana AI Disgorgementin tuomiselle. Sillä välin olemme juuri hiipineet tähän keskusteluun toisen seuraavan tärkeän pohdittavan elementin, nimittäin onko tekoälyn poistaminen tai tuhoaminen aina mahdollista.

Edellisessä dialogissa tavallaan oletimme nimellisarvossa, että voimme tuhota tai poistaa tekoälyn, jos haluamme tehdä niin. Yksi mainittu käänne koski sitä, että yritettiin erottaa tekoälyjärjestelmän osat, jotka halusimme pitää ennallaan, ja osat, jotka halusimme poistaa tai tuhota. Se voi olla vaikea tehdä. Vaikka se on vaikea toteuttaa, olisimme silti suhteellisen vakuuttavia väittäessämme, että se voidaan väistämättä saavuttaa teknologisesti (meidän on ehkä rakennettava uudelleen tuhoamamme osia ja laitettava ne takaisin paikoilleen tukemaan toista osaa, jota teimme). en halua tuhota).

Muuta hieman näkökulmaa ja mieti, voimmeko todella aina tuhota tai poistaa tekoälyn, jos haluamme tehdä niin. Jätä syrjään tekoälyn etiikkakysymys ja keskity yksinomaan tuhoisan toteutettavuuden teknologiseen kysymykseen (en halua lausua sanoja "jätä syrjään tekoälyn etiikka", koska tekoälyn etiikka on aina tärkeä ja erottamaton näkökohta tekoälylle, mutta toivon ymmärrät, että käytän tätä puhekuvana vain huomion kiinnittämiseksi, kiitos).

Jaamme tämän kahteen päättelylinjaan:

  • Jos meillä on tunteva Tekoäly, josta me kaikki olemme samaa mieltä, on tuhottava tai poistettava, olisiko meillä teknisesti varmoja keinoja tehdä niin?
  • Jos meillä on tunteeton Tekoäly, josta me kaikki olemme samaa mieltä, on tuhottava tai poistettava, olisiko meillä teknisesti varmoja keinoja tehdä niin?

Väittäisin, että vastaus molempiin kysymyksiin on selvä "ei" (olen melko turvallisella teknisellä pohjalla sanoakseni "ei", koska on aina olemassa mahdollisuus, että voisimme emme tuhota tai poistaa tekoäly, kuten kerron seuraavaksi). Pohjimmiltaan vastaus olisi luultavasti "kyllä" ei-aistivan tekoälyn tapauksessa, kun taas tuntevan tekoälyn tapauksessa vastaus on "ehkä, mutta kukaan ei voi sanoa kumpaakaan varmasti" johtuen tietämättä, mikä tunteva tekoäly tulee olemaan tai edes syntyykö se.

Tuntevan tekoälyn tapauksessa on olemassa lukemattomia kuvitteellisia teorioita, joita voidaan olettaa.

Jos tunteva tekoäly on yli-inhimillinen tai superälykäs, voit yrittää väittää, että tekoäly ylittäisi meidät ihmiset, eikä antaisi pyyhkiä itseään pois. Oletettavasti, riippumatta siitä, mitä yritämme, tämä suuri tekoäly on aina askeleen edellä meitä. Saatamme jopa yrittää hyödyntää jotakin ihmisystävällistä esimerkkiä tästä älykkäästä super-duper AI:sta tuhotaksemme toisen tuntevan tekoälyn, jota emme muuten pysty poistamaan omin menetelmin. Varo kuitenkin, että avulias tekoäly muuttuu myöhemmin pahantekijäksi ja jäämme tämän tekoälyn armoille, josta emme siksi pääse eroon.

Niille teistä, jotka pitävät iloisten kasvojen versiosta futuristisesta tuntevasta tekoälystä, ehkä teoriaamme, että jokainen tunteva tekoäly olisi halukas tuhoutumaan ja haluaisi tehdä niin aktiivisesti, jos ihmiset niin toivoisivat. Tämä ymmärtäväisempi ja sympaattisempi tunteva tekoäly voisi ymmärtää, milloin on aika lähteä. Sen sijaan, että taistelisi omaa tuhoaan vastaan, se olisi tyytyväinen, että se tuhottaisiin, kun tällaisen toiminnan aika koittaa. Ehkä tekoäly tekee työn puolestamme ja valitsee itsensä tuhoamisen.

Arvelut tuntevasta tekoälystä voivat vaeltaa mihin suuntaan tahansa haaveilet. Ei ole erityisiä sääntöjä siitä, mikä on mahdollista. Oletetaan, että fysiikan realiteetit ja muut luonnolliset rajoitteet tulisivat voimaan, vaikka ehkä superälykäs älykäs tekoäly tietää tapoja voittaa kaikki, mitä pidämme itsestäänselvyytenä.

Todellisuudesta puhuttaessa siirretään huomiomme tämän päivän tuntemattomaan tekoälyyn.

Saatat tuntea houkutusta uskoa, että voimme aina ehdottomasti päättää tuhota tai poistaa minkä tahansa nykyisen tekoälyn. Kuvittele, että yritys on kehittänyt tekoälyjärjestelmän, jonka valtion viranomaiset määräävät kumottavaksi. Yritys on lain mukaan velvollinen tuhoamaan tai poistamaan tekoälyjärjestelmän.

Vaikuttaa siltä, ​​että paina vain poistopainiketta ja pöh, AI-järjestelmä ei ole enää olemassa. Teemme tämän käyttämättömillä sovelluksilla emmekä halua enää kannettavissa tietokoneissamme ja älypuhelimissamme olevia datatiedostoja. Erityisiä tietokoneteknisiä taitoja ei tarvita. Yritys pystyy noudattamaan säädösmääräystä minuuteissa.

Voimme käydä läpi syitä, miksi tämä oletettu tekoälyn tuhoamisen tai poistamisen helppous ei ole niin yksinkertaista kuin aluksi luulisi.

Ensinnäkin merkittävä kysymys liittyy siihen, mitä tarkoitetaan, kun sanot, että tekoälyjärjestelmä on tuhottava tai poistettava. Yksi puoli on ohjelmointikoodi, joka sisältää tekoälyn. Toinen puoli olisi mikä tahansa tekoälyyn liittyvä data.

Tekoälyn kehittäjät ovat saattaneet luoda monia versioita tekoälystä tehdessään tekoälyä. Yksinkertaistetaan asioita ja sanotaan, että koodista on olemassa lopullinen versio, joka on käynnissä ja josta on tullut kohde, joka on poistettu. Okei, yritys poistaa lopullisen version. Teko on tehty!

Mutta osoittautuu, että nuo aiemmat versiot ovat kaikki edelleen paikallaan. Saattaa olla suhteellisen lasten leikkiä herättää pohjimmiltaan nyt poistettu tekoäly käyttämällä jotakin noista aikaisemmista versioista. Otat aikaisemman version, teet muutoksia saadaksesi sen tasolle, ja olet taas toiminnassa.

Ilmeinen tapa yrittää estää tällainen poistolista olisi määrätä, että kaikki aiemmat tekoälyn versiot on tuhottava. Tämä näyttäisi pakottavan yrityksen etsimään vakavasti vanhempia versioita ja varmistamaan, että myös ne poistetaan.

Yksi käänne on se, että oletetaan, että tekoäly sisälsi merkittävän osan laajalti saatavilla olevasta avoimen lähdekoodin koodista. Kehittäjät olivat alun perin päättäneet, etteivät he aloittaisi tekoälyn rakentamista tyhjästä. Sen sijaan he nappasivat paljon avoimen lähdekoodin koodia ja käyttivät sitä tekoälynsä selkärankana. He eivät omista avoimen lähdekoodin koodia. Ne eivät hallitse avoimen lähdekoodin koodia. He vain kopioivat sen tekoälyluokseensa.

Nyt meillä on pieni ongelma.

Yritys noudattaa käskyä tuhota heidän tekoälynsä. He poistavat koodin kopion ja kaikki hallussaan olevat sen versiot. He poistavat kaikki sisäiset asiakirjansa. Samaan aikaan he eivät pysty luopumaan avoimesta lähdekoodista, joka käsittää (sanotaanko) suurimman osan heidän tekoälyjärjestelmästään, koska se ei ole jotain, jota he laillisesti omistavat eikä heillä ole suoraa määräysvaltaa. Yritys näyttää tehneen sen minkä pystyi.

Sanoisitko, että loukkaava tekoäly itse asiassa tuhottiin tai poistettiin?

Yritys todennäköisesti vaatisi, että he tekivät niin. Hallintoviranomaisen näyttäisi olevan vaikea taistella toisin.

He saattavat pystyä herättämään tekoäly nopeasti henkiin menemällä ulos ottamaan vastaan ​​laajasti saatavilla olevan avoimen lähdekoodin ja lisäämällä kappaleita tekemällä ohjelmointia, joka perustuu heidän tietoonsa siitä, mistä lisätyt osat koostuivat. He eivät käytä aiempaa loukkaavaa koodia, jonka he olivat poistaneet kokonaan. He eivät käytä mitään poistamiaan asiakirjoja. Voila, heillä on "uusi" tekoälyjärjestelmä, josta he väittävät, ettei se ole tekoäly, joka heidän oli määrätty poistamaan.

Luotan siihen, että näet, kuinka tällaisia ​​kissa-hiiripelejä voidaan pelata helposti.

On paljon enemmän käänteitä.

Oletetaan, että poistettava tekoäly perustui koneoppimisen käyttöön. ML voisi olla yrityksen itsensä kehittämä ohjelma, mutta todennäköisemmin nykyään ML on algoritmi tai malli, jonka yritys valitsi verkkokirjastosta tai -kokoelmasta (näitä on paljon ja paljon helposti saatavilla).

Yritys poistaa lataamansa ja käyttämänsä ML:n esiintymän. Täsmälleen sama ML-algoritmi tai malli on edelleen julkisesti saatavilla olevassa online-kirjastossa, ja se on mahdollisesti saatavilla kaikille, jotka haluavat käyttää sitä. Valtion viranomaisilla ei ehkä ole keinoja rajoittaa tätä verkkokirjastoa tai aiheuttaa sen tyhjenemistä.

Se on vasta alkua tekoälyn tuhoamiseen tai poistamiseen liittyville vaikeuksille, mukaan lukien esimerkiksi koneoppimisen käyttö. Kuten aiemmin mainittiin, ML ja DL edellyttävät tyypillisesti tietojen syöttämistä ML/DL:ään. Jos yrityksellä on edelleen hallussaan aiemmin käyttämänsä tiedot, he voivat ladata uuden kopion ML/DL-algoritmista tai mallista verkkokirjastosta ja muodostaa tekoäly uudelleen syöttämällä tiedot uudelleen olennaisesti samaan ML/DL:ään kuin he oli käyttänyt ennen.

Saatat viisaasti huutaa, että yrityksen käyttämät tiedot on myös sisällytettävä poistomääräyksen piiriin. Toki, oletetaan, että näin on.

Jos tiedot ovat kokonaan yrityksen rajojen sisällä, he todennäköisesti pystyisivät tuhoamaan tai poistamaan tiedot. Ongelma ratkaistu, joku sanoisi. Oletetaan kuitenkin, että tiedot perustuvat useisiin ulkoisiin lähteisiin, jotka kaikki eivät kuulu tuhoamismääräyksen piiriin, koska ne eivät ole rikkoneen yrityksen omistuksessa eivätkä sen hallinnassa.

Ydin on, että voit muista ulkoisista lähteistä napata kopioita tiedoista, napata kopion ML/DL-algoritmista ja muodostaa tekoälyjärjestelmän uudelleen. Joissakin tapauksissa tämä voi olla kallista toteuttaa ja saattaa vaatia paljon aikaa, kun taas toisissa tapauksissa se voi olla toteutettavissa lyhyessäkin järjestyksessä. Kaikki riippuu useista tekijöistä, kuten kuinka paljon dataa on muokattava tai muunnettava, ja sama koskee ML/DL:n parametrien asetusta ja koulutusta.

Meidän on myös pohdittava, mitä tuhoaminen tai poistaminen tarkoittaa.

Tiedät varmasti, että kun poistat tiedoston tai sovelluksen tietokoneeltasi, on mahdollista, että sähköisesti tallennettua kohdetta ei ole vielä kokonaan poistettu. Tyypillisesti käyttöjärjestelmä päivittää asetuksen, joka osoittaa, että tiedosto tai sovellus on tulkittava poistetuksi. Tämä on kätevää, jos haluat palauttaa tiedoston tai sovelluksen. Käyttöjärjestelmä voi vain kääntää lipun osoittaakseen, että kerran näennäisesti poistettu tiedosto tai sovellus on nyt taas aktiivinen.

Vaikka käyttöjärjestelmäsi suorittaisi määrätietoisemman poiston, on todennäköistä, että tiedosto tai sovellus on edelleen jossain. Se voi olla varmuuskopiotallennuslaitteella. Se saattaa olla arkistoitu. Jos käytät pilvipohjaista verkkopalvelua, siellä todennäköisesti on myös kopiot. Sinun on paitsi löydettävä kaikki nuo varjokopiot, myös suoritettava erilaisia ​​erikoistuneita kyberturvallisuuspoistotoimenpiteitä varmistaaksesi, että näiden tiedostojen ja sovellusten bitit ja tavut kirjoitetaan kokonaan ja tietyssä mielessä todella poistetaan tai poistetaan. tuhottu.

Huomaa, että mainitsin juuri varjon käsitteen.

Meillä on ainakin kolmen tyyppisiä varjoja, joita on mietittävä tekoälyn hajoamisen suhteen:

1) Tekoälyn varjokopiot

2) Tekoälyyn liittyvät varjoalgoritmit

3) Tekoälyyn liittyvät varjotiedot

Kuvittele, että tekoälyn purkamista koskeva määräys ohjeistaa yritystä tuhoamaan tai poistamaan tekoälyyn liittyvät tiedot, mutta yritys voi pysyä algoritmissa (ehkä sallii tämän, jos algoritmi ei näytä olevan muuta kuin se, jonka voit löytää mikä tahansa online-ML-kirjasto joka tapauksessa).

Osoittautuu, että algoritmilla itsessään voidaan pohjimmiltaan sanoa olevan omanlaisensa dataa, kuten tiettyjä asetuksia, jotka tukevat algoritmia. ML:n kouluttaminen edellyttää yleensä sitä, että ML:n on selvitettävä mitkä parametriasetukset on kalibroitava. Jos sinut määrätään vain luopumaan harjoitustietojoukosta sinänsä, muut dataan liittyvät parametriasetukset säilyvät todennäköisesti edelleen. Tämä viittaa siihen, että tekoäly voidaan jonkin verran helposti muodostaa uudelleen, tai voit jopa väittää, että tekoälyä ei poistettu ollenkaan ja olet yksinkertaisesti päässyt eroon aiemmin käytetyistä harjoitustiedoista, joista et ehkä enää välitä. On myös suuri mahdollisuus, että jokin muoto jälki jää jäljelle harjoitustiedoista, joista olen keskustellut linkki tähän.

Harjoitustiedoista eroon pääseminen voi myös olla haastavaa, jos tiedot ovat peräisin useista kolmansien osapuolien lähteistä. Toki saatat pystyä pakottamaan yrityksen poistamaan kootut tiedot talon sisällä, mutta jos tiedot ovat olemassa muista lähteistä, jotka eivät kuulu niiden piiriin, samat tiedot voidaan todennäköisesti koota uudelleen. Tämä voi olla kallista tai halpa tehdä olosuhteista riippuen.

Koko tämän keskustelun aikana olemme keskittyneet ajatukseen, että tietty yritys on kohde tekoälyn purkamiseen. Tämä saattaa olla tyydyttävää ja toimia asianmukaisena korjauskeinona kyseiseen yritykseen liittyen. Toisaalta tämä ei välttämättä poista tai tuhoa tekoälyä jollakin tavalla, koska se saattaa olla olemassa tai muodostua uudelleen kohdeyrityksen ulottumattomissa.

Tekoäly saatetaan kopioida miljoonille muille online-sivustoille, joihin yrityksellä ei ole keinoja päästä eikä niitä voi pakottaa poistamaan. Muut, jotka ovat tietoisia tekoälyn toiminnasta, voivat rakentaa tekoälyn uudelleen tyhjästä. Saatat jopa olla yrityksen entisiä työntekijöitä, jotka jättävät yrityksen ja päättävät käyttää tekoälykehitystaitojaan uudelleen rakentaakseen olennaisesti saman tekoälyn muualle, minkä he väittäisivät perustuvan heidän tietoihinsa ja taitoihinsa, mikä ei loukkaa tai joutuisi uhriksi. kopio tekoälyn purkamismääräyksestä.

Ehkä osuva analogia tekoälyn hajoamisongelmiin saattaa olla tietokonevirusten tulo.

Mahdollisuudet metsästää ja poistaa kaikki virusperäisen tietokoneviruksen kopiot ovat yleensä pienet, erityisesti johtuen oikeudellisista kysymyksistä siitä, missä virus saattaa sijaita (kuten kansainvälisten rajojen yli) ja tietokoneviruksen piiloutumiseen pyrkivän teknisen huijauksen vuoksi ( Olen keskustellut tekoälypohjaisten polymorfisten tietokonevirusten ilmaantumisesta, jotka ovat elektronisia itsesopeutuvia muodonmuuttajia).

Lisäksi haasteita pahentaa se, että tietokonevirusten suunnitteluun ja valmistukseen perehtyneillä on aina oletettu kyky rakentaa sama tai suunnilleen vastaava tietokonevirus.

AI Disgorgement on näennäisen kätevä idea ja mahdollisesti käyttökelpoinen työkalu, mutta paholainen on yksityiskohdissa.

Tämän painavan keskustelun tässä vaiheessa lyön vetoa, että kaipaat havainnollistavia esimerkkejä, jotka voisivat osoittaa AI Disgorgementin sovellettavuuden nykymaailmassa. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo jotain tekoälyn disgorgementin soveltuvuudesta, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoälyn hajoaminen

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Luotan siihen, että se tarjoaa riittävän litanian varoituksia, jotka tukevat sitä, mitä aion kertoa.

Olemme nyt valmiita sukeltamaan syvälle itseajaviin autoihin ja AI Disgorgementiin.

Yritys kehittää tekoälyyn perustuvaa itseohjautuvaa autoa ja päättää käyttää yleisiä teitä itseohjautuvan ajoneuvon testaamiseen. Jonkin aikaa kentällä ajavat autot voivat hyvin. Ihmiset lähtevät ajelulle laivastossa. Kaikki näyttää hyvältä.

Valitettavasti yksi itseajavista autoista törmää pyöräilijään. Paikalliset kaupungin johtajat ja koko väestö ovat melko järkyttyneitä. Kaksi päivää myöhemmin toinen pyöräilijä joutuu saman autokannan toisen itseohjautuvan auton töihin. Vitriolimainen meteli varmistaa. Katso samanlaisia ​​skenaarioita, jotka mahdollisesti kohtaavat jonakin päivänä kaupungin johtajat ja yhteisöt, tutkimuksesta, jonka tein yhdessä Harvardin tiedekunnan jäsenen kanssa osoitteessa linkki tähän.

Valtion viranomainen julistaa, että yritys on pakotettava toteuttamaan tekoälyn purkaminen. AI-ajojärjestelmä on tarkoitus poistaa tai tuhota kokonaan. Sivuhuomautuksena tämä on jokseenkin keinotekoinen skenaario, koska olisi muita vaihtoehtoja, mitä voitaisiin tehdä, ja niitä oletettavasti harkittaisiin ensin. Tekoälyn poistaminen näyttäisi olevan viimeinen keino, ja myös itse ajavien autojen yritys taistelee sitä vastaan ​​epäilemättä ankarasti. Hyväksy kuviteltu asetus keskittyäksesi siihen, miten tekoälyn purkaminen voidaan toteuttaa.

Oletetaan, että yritys liittyy tekoälyn purkamiseen. He jatkavat ja poistavat AI-ajojärjestelmän uusimman kopion. Teko on tehty.

No, kuten aiemmin todettiin, teko ei ole vielä ollenkaan valmis. Yritys poistaa kaikki aiemmat tekoälyjärjestelmän versiot. He tutkivat yrityksen palvelimia ja poistavat niistä kopiot. He tutkivat pilvipohjaisia ​​palvelimia ja poistavat niistä kopiot. He menevät varmuuskopioihinsa ja arkistoonsa ja poistavat ne. He pyytävät, että pilvipalveluntarjoaja tekee samoin kaikille pilvessä oleville varmuuskopioille tai arkistoille, jotka sisältävät tekoälyn ajojärjestelmän koodin.

Olemmeko valmiita?

Nope.

Tekoälyjärjestelmän kouluttamiseen käytettiin paljon dataa. Tekoälyjärjestelmän kouluttamiseen käytettiin valtavia kerättyjä tietoja, jotka sisälsivät videoita ja kuvia tiekohtauksista. Ne löytyvät ja poistetaan. Lukuisat muut tiedostot olivat kaikki olennaisia ​​tekoälyn ajojärjestelmän suunnittelussa. Ne myös paljastetaan ja poistetaan. Varmuuskopiot ja arkistot kaivetaan esiin ja samoin poistetaan.

Tekoälyn poisto sisälsi kaikki tekoälyohjelmat, tiedot ja asiakirjat. Joten yritys yrittää löytää kaiken online-dokumentaation ja poistaa kyseiset asiakirjat, mukaan lukien varmuuskopiot, arkistot ja muut vastaavat. Lisäksi tekoälykehittäjiä ja muita tekoälyjärjestelmään osallistuvia pyydetään toimittamaan käsinkirjoitetut muistiinpanonsa. Sitten ne murskataan ja laitetaan roskakoriin.

Vau, tekoälyä ei ole enää olemassa.

Eräänlainen.

AI-ajojärjestelmä perustui helposti saatavilla olevaan avoimeen lähdekoodiin. Yrityksellä ei ole mahdollisuutta poistaa tai tuhota avointa lähdekoodia sinänsä (he voivat tehdä niin vain omistamillaan kopioilla). Tekoälyjärjestelmässä on myös ML/DL-komponentti. Tämä ML/DL perustuu pilvipohjaiseen kirjastoon lisensoituihin algoritmeihin. Yritys voi poistaa vain luomansa ilmentymät, eikä sillä ole keinoja taistella pilvipohjaisen kirjaston kanssa. ML/DL:ssä käytetty koulutusdata koostuu videoista ja kuvista, jotka löytyvät helposti muilta sivustoilta ja erikoistuneista avoimesti saatavilla olevista tietokokonaisuuksista.

Tekoälyjärjestelmän poistetun dokumentaation suhteen tämä sujui yleisesti ottaen hyvin, vaikkakin siellä taitaa olla vielä taskuja asiakirjoja, joita joillakin tekoälykehittäjillä on henkilökohtaisissa kannettavissa tietokoneissaan, eivätkä ne halunneet hankkia niitä. Joka tapauksessa tekoälykehittäjät tietävät päänsä sisällä, mistä tekoäly koostuu, ja voivat nopeasti siirtyä toisen itseohjautuvan autoyrityksen palvelukseen hyödyntääkseen asiantuntemustaan ​​siellä.

Pian tämän tekoälyn purkamisen jälkeen kilpaileva yritys, joka palkkasi nämä entiset työntekijät, on olennaisesti muokannut tekoälyn ajojärjestelmän. He eivät kopioineet purettua tekoälyä. Sen sijaan he rakensivat tekoälyn itsenäisesti uudelleen käyttämällä avoimen lähdekoodia, ML/DL-kirjastoja ja avoimesti saatavilla olevia tietojoukkoja.

Voisi kai sanoa, yksi alas ja vielä jäljellä, ainakin mahdollisen AI Disgorgementin näkökulmasta.

Yhteenveto

Vaikka esimerkki viittaa siihen, että tekoälyn hajoaminen voidaan voittaa, älä ota huomioon tätä mahdollista keinoa tekoälyvirheiden korjaamiseksi. Jotkut väittävät, että AI Disgorgementin käyttöä pidetään näkyvästi tehokkaana tapana saada muut yritykset vakuuttuneiksi siitä, että niiden tulisi olla tarkkaavaisempia tekoälynsä suunnittelussa ja käyttöönotossa. He saattoivat menettää kultapottinsa. Tämä on kätevä työkalu tekoälyn etiikan noudattamiseen ja eettisen tekoälyn suunnitteluun.

Toiset väittävät, että AI Disgorgement voisi tukahduttaa innovaatioita tekoälyn edistämisessä ja käytössä. Ehkä tekoälykehittäjät epäröivät venyttää kirjekuorta, jos he tietävät, että jonain päivänä heidän tekoälynsä voidaan käytännössä poistaa. Se olisi vaikea pilleri niellä niille, jotka olivat omistaneet vuosia verta, hikeä ja kyyneleitä tekoälyn tekemiseen.

Lukuisia muita kompromisseja tehdään ympäriinsä. Ehkä kilpaileva myyjä yrittäisi saada valtion viranomaisen alittamaan kilpailun pakottamalla viraston käyttämään AI Disgorgementia muita saman toimialan yrityksiä vastaan. Ja ajattele myös kustannuksia, jotka aiheutuvat tällaisen määräyksen noudattamisesta. Ei ole vain punaista painiketta, jota voit painaa suorittaaksesi kaiken tekoälyn poistamisen ja tuhoamisen. Saatat tarvita paljon kallista työvoimaa, ja sen toteuttaminen voi kestää viikkoja tai kuukausia.

Aika näyttää, saako tämä uusi keino selviytyä tekoälystä, vai jääkö se sivuun.

Tarkoittaako tämä lihava keskustelu tekoälyn hajoamisesta, että tekoäly on mahdollisesti tuhoutumaton?

Voit väittää, että ilmaus tuhoutumattomasta tai tuhoutumattomasta on jossain määrin hämärää, kun viitataan johonkin, joka on pääasiassa sähköistä. Ihminen ei ole tuhoutumaton, koska voisimme ilmeisesti löytää keinon tuhota ihmisen fyysinen muoto. Samaa voidaan sanoa melkein kaikesta, mikä saa tavanomaisen fyysisen ilmentymän. En puutu metafyysisiin filosofisoiviin teorioihin, joiden mukaan mikään ei ole koskaan tosiasiassa tuhoutunut ja että kaikki aine vain muodostetaan uudelleen eri muodoiksi ja silti on olemassa (olet tervetullut tutkimaan tätä korkeaa teoretisointia, jos haluat).

Ottaen huomioon nykypäivän tietojenkäsittelyn kaikkialla esiintyvä luonne ja tietojenkäsittelyn todennäköinen jatkuvasti kasvava käyttö, kuten ylistetty esineiden Internet (IoT), sähköiseen tekoälyyn voi piiloutua paljon ja paljon. Tämän päivän tuntemattomalle tekoälylle ihmiset, jotka haluavat piilottaa sen, voivat piilottaa tekoälyn, tai tekoälyn kehittäneet ihmiset voivat ohjelmoida piiloutumaan. Taivas tietää, mitä tunteva tekoäly voi tehdä.

Jos tekoälyjärjestelmä voi helposti tehdä kopioita itsestään ja piilottaa ne kopiot eikä jää lopulta kiinni, olisitko valmis sanomaan, että tämä on esimerkki tuhoutumattomuudesta?

Jotkut väittävät, että räikeästä mahdollisuudesta huolimatta voit lopulta tuhota tai poistaa tekoälyn, kunhan voit onnistuneesti löytää ja pyyhkiä pois jokaisen tällaisen ilmestyvän tai uudelleen ilmestyvän ilmentymän. Eli tekoäly ei ole tuhoutumaton. Toiset vastaisivat, että piilossa oleva tekoäly on näennäisesti tuhoutumaton, koska se voi vain jatkaa kutemista ja kissa-hiiri-gambitti voi kestää lähes ikuisesti. Tulet aina kohtaamaan seuraavan tapauksen, jota et vieläkään ole puristanut.

Tulee mieleen kuuluisa lainaus: "En ole koskaan syntynyt enkä koskaan kuole; En satuta enkä minua voi satuttaa; Olen voittamaton, kuolematon, tuhoutumaton” (kuulutettu kirjailija ja toimittaja Aravind Adiga).

Voisiko se sopia tekoälyyn?

Ne, jotka kiistelevät älykkäästä superälykkäästä tekoälystä, ilmeisesti sanoisivat, että voisi.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/05/09/ai-ethics-and-the-law-are-dabbling-with-ai-disgorgement-or-all-out-destruction- of-ai-as-a-a-korjaus-ai-väärintekoon-mahdollisesti-jopa-huonosti-ajo-autot/