Tekoälyn etiikka ja tekoälylaki esittävät vaikeita kysymyksiä tästä uudesta lupauksesta tanssivan robotin tekijät sanoen, että he estävät tekoälyaseiden

Olet ehkä viime viikolla nähnyt uutisissa tai huomannut sosiaalisessa mediassa joidenkin robottivalmistajien ilmoittaman lupauksen heidän tavoitteistaan ​​välttää yleiskäyttöisten robottien tekoälyaseita. Kävelen sinut yksityiskohtien läpi hetken kuluttua, joten älä huoli, jos et olisi saanut selvää asiasta.

Reaktio tähän julistukseen on ollut nopeaa ja, kuten polarisoituneessa yhteiskunnassamme, kenties tavallista, ollut sekä ylistävää että toisinaan pilkallisen kriittistä tai suorastaan ​​ilkeän skeptistä.

Se on tarina kahdesta maailmasta.

Eräässä maailmassa jotkut sanovat, että tämä on juuri sitä, mitä tarvitsemme vastuullinen AI-robottien kehittäjät ilmoittavat.

Luojan kiitos, että olet oikealla puolella ongelmassa, joka vähitellen tulee näkyvämmäksi ja huolestuttavammaksi. Nuo söpöt tanssirobotit ovat huolestuttavia, koska niitä on melko helppo muuttaa kantamaan aseita ja käytettäväksi pahimmilla tavoilla (voit tarkistaa tämän itse käymällä sosiaalisessa mediassa ja siellä on runsaasti videoita, joissa esitellään konekivääreillä aseistettuja tanssirobotteja ja muut aseet).

Tämän kolikon toisella puolella sanotaan, että ns. lupaus ei ole muuta kuin markkinointi- tai suhdetoimintatemppu (sivuhuomautuksena, onko kenellekään tuttu ero panttauksen ja lahjoituksen välillä?). Joka tapauksessa epäilijät kehottavat, että tämä on hillitöntä hyve-signalointia tanssivien robottien yhteydessä. Katsos, valittaminen siitä tosiasiasta, että yleiskäyttöiset robotit voidaan aseistaa, on varmasti arvokasta ja vilpittömästi etsittyä harkintaa, vaikka pelkkä väittäminen, että valmistaja ei tee niin, on todennäköisesti ontto lupaus, jotkut väittävät.

Kaiken kaikkiaan koko asia tuo esiin melkoisen joukon tekoälyn etiikkaa ja tekoälylakia koskevia näkökohtia. Puramme aiheen huolellisesti ja katsomme, kuinka tämä on kaksinkertainen eettinen ja laillinen tekoälyn sota. Katso jatkuvasta ja kattavasta tekoälyn etiikkaa ja tekoälylakia käsittelevästä kattauksestani linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Viittaan myös koko tämän keskustelun ajan aikaisempiin analyyseihini tekoälyaseiden vaaroista, kuten perusteelliseen arviooni linkki tähän. Haluat ehkä katsoa tätä keskustelua saadaksesi lisää kulissien takaa.

Avoin kirje, joka avaa matopurkin

Aloitetaan tämä analyysi tekemällä huolellinen vaihe vaiheelta tutkimalla Open Letteriä, jonka kuusi suhteellisen tunnettua edistynyt robottivalmistaja julkaisi äskettäin, nimittäin Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics ja Unitree. Yleisesti ottaen oletan, että olet nähnyt pääasiassa Boston Dynamics -robotteja, kuten sellaisia, jotka hyppäävät nelijalkain. Ne näyttävät koiramaisilta, ja nautimme nähdessämme niiden vaeltelevan.

Kuten olen aiemmin ja toistuvasti varoittanut, tällaisten "tanssivien" robottien käyttö keinona vakuuttaa suurelle yleisölle, että nämä robotit ovat söpöjä ja suloisia, on valitettavasti harhaanjohtavaa ja poikkeaa niiden antropomorfisoinnin runsaisiin sudenkuoppiin. Alamme ajatella näitä karkaistuja metalli- ja muovikappaleita ikään kuin ne olisivat pehmoisen uskollisen koiran vastineita. Haluamme hyväksyä nämä robotit perustuvat väärään turvallisuuden ja varmuuden tunteeseen. Toki, sinun täytyy tehdä rahaa, ja tanssivien robottien ympärillä kulkue lisää todennäköisyyttä tehdä niin, mutta tämä valitettavasti jättää huomiotta tai näennäisesti piilottaa todellisen tosiasian, että nämä robotit ovat robotteja ja että robotteja ohjaava tekoäly voidaan keksiä väärin. tai mennä pieleen.

Harkitse näitä tekoälyn seurauksia (ote AI-aseita käsittelevästä artikkelistani, joka löytyy osoitteesta linkki tähän):

  • AI saattaa kohdata virheen, joka saa sen menemään harhaan
  • Tekoäly saattaa olla ylikuormittunut ja lukkiutua reagoimatta
  • Tekoäly saattaa sisältää kehittäjävirheitä, jotka aiheuttavat virheellistä toimintaa
  • Tekoäly voi olla korruptoitunut implantoidulla pahantekijäviruksella
  • Kyberhakkerit voivat ottaa tekoälyn haltuunsa reaaliajassa
  • Tekoälyä saatetaan pitää arvaamattomana monimutkaisuuden vuoksi
  • Tekoäly saattaa laskennallisesti tehdä "väärän" päätöksen (suhteellisesti)
  • Jne.

Nämä ovat kohtia tekoälystä, joka on sellaista tyyppiä, joka on aidosti suunniteltu heti alkuvaiheessa tekemään oikein.

Näiden näkökohtien lisäksi sinun on sisällytettävä tekoälyjärjestelmät, jotka on luotu alusta alkaen tekemään huonoja asioita. Sinulla voi olla tekoäly, joka on tehty hyödyllisiin tarkoituksiin, joita usein kutsutaan nimellä AI Hyvä. Sinulla voi myös olla tekoäly, joka on tahallisesti tehty huonoihin tarkoituksiin AI huono. Lisäksi voit saada AI Hyvä joka on turmeltunut tai muutettu muuttumaan AI huono.

Muuten, millään tällä ei ole mitään tekemistä tekoälyn muuttumisen tuntevaksi, minkä mainitsen, koska jotkut huutavat jatkuvasti, että nykypäivän tekoäly on joko tunteva tai sen partaalla. Ei niin. Puran nämä myytit analyysissäni osoitteessa linkki tähän.

Varmistetaan sitten, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluaisimme villisti spekuloida tuntevasta tekoälystä, tämä keskustelu voisi mennä radikaalisti toiseen suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (erittäin älykkään tekoälyn mahdollisuuksien tutkimista varten, ks. kattavuus täällä).

Suosittelen vahvasti, että pidämme asiat maanläheisinä ja harkitsemme nykypäivän laskennallista ei-aistia tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

Ole erittäin varovainen tämän päivän tekoälyn antropomorfoinnissa.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Lisäksi tekoälyn kehittäjät eivät ehkä ymmärrä, mitä on tekeillä. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä se saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhoja.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Kaikella tällä on huomattavan merkittäviä tekoälyn eettisiä vaikutuksia, ja se tarjoaa kätevän ikkunan opittuihin opetuksiin (jopa ennen kuin kaikki oppitunnit tapahtuvat), kun on yritettävä säätää tekoälyä.

Tekoälyn eettisten ohjeiden yleisen soveltamisen lisäksi on vastaava kysymys, pitäisikö meillä olla lakeja säätelemään tekoälyn eri käyttötapoja. Liittovaltion, osavaltion ja paikallisen tason uudet lait koskevat tekoälyn suunnittelun laajuutta ja luonnetta. Pyrkimys tällaisten lakien laatimiseen ja säätämiseen on asteittaista. Tekoälyn etiikka toimii ainakin harkittuna pysähdyspaikkana, ja se sisällytetään lähes varmasti jossain määrin suoraan näihin uusiin lakeihin.

Huomaa, että jotkut väittävät jyrkästi, ettemme tarvitse uusia tekoälyä koskevia lakeja ja että nykyiset lakimme ovat riittäviä. He varoittavat, että jos säädämme osan näistä tekoälylaeista, tapamme kultaisen hanhen hillitsemällä tekoälyn edistysaskeleita, jotka tarjoavat valtavia yhteiskunnallisia etuja.

Aiemmissa kolumneissa olen käsitellyt erilaisia ​​kansallisia ja kansainvälisiä pyrkimyksiä laatia ja säätää tekoälyä sääteleviä lakeja, ks. linkki tähän, esimerkiksi. Olen myös käsitellyt erilaisia ​​tekoälyn eettisiä periaatteita ja ohjeita, jotka eri valtiot ovat tunnistaneet ja omaksuneet, mukaan lukien esimerkiksi Yhdistyneiden kansakuntien pyrkimykset, kuten Unescon tekoälyn etiikka, jonka lähes 200 maata on hyväksynyt, ks. linkki tähän.

Tässä on hyödyllinen avainlista eettisistä tekoälykriteereistä tai ominaisuuksista koskien tekoälyjärjestelmiä, joita olen aiemmin tutkinut tarkasti:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Tekoälykehittäjien oletetaan vakavasti hyödyntävän näitä tekoälyn eettisiä periaatteita, samoin kuin ne, jotka hallitsevat tekoälyn kehitystyötä, ja jopa ne, jotka viime kädessä ottavat käyttöön ja ylläpitävät tekoälyjärjestelmiä.

Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten tässä on aiemmin korostettu, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, jota varten koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Nyt kun olen luonut hyödyllisen perustan päästäkseni avoimeen kirjeeseen, olemme valmiita sukeltamaan.

Avoimen kirjeen virallinen otsikko on tämä:

  • "Avoin kirje robotiikkateollisuudelle ja yhteisöillemme, yleisrobotteja ei pidä aseistaa” (verkkoon julkaistun mukaisesti).

Toistaiseksi niin hyvä.

Otsikko näyttää melkein jäätelöltä ja omenapiirakkaalta. Kuinka kukaan voisi kiistää tämän entisenä kehotuksena välttää AI-robottien aseistamista?

Lue eteenpäin nähdäksesi.

Ensinnäkin, tässä on rehuna pohdittavaksi avoimen kirjeen virallinen aloituskappale:

  • ”Olemme maailman johtavia yrityksiä, jotka ovat omistautuneet tuomaan yhteiskunnalle edistyneen mobiilirobotiikan uusia sukupolvia. Nämä uuden sukupolven robotit ovat helpommin saavutettavia, helpompia käyttää, autonomisempia, edullisempia ja mukautuvampia kuin aiemmat sukupolvet, ja ne pystyvät navigoimaan paikkoihin, joihin automatisoidut tai kauko-ohjatut tekniikat eivät aiemmin pääse käsiksi. Uskomme, että edistyneistä mobiiliroboteista on suurta hyötyä yhteiskunnalle työtovereina teollisuudessa ja kumppaneina kodeissamme” (kuten verkossa on julkaistu).

Tällaisten robottien tulon aurinkoinen puoli on se, että voimme ennakoida monia suuria etuja. Ei epäilystäkään. Sinulla saattaa olla kotonasi robotti, joka voi suorittaa Jetsonin kaltaiset toiminnot, kuten kodin siivoaminen, astioiden pesu ja muut kotityöt. Meillä on kehittyneitä robotteja käytettäväksi tehtaissa ja tuotantolaitoksissa. Robotit voivat ryömiä tai liikkua ahtaissa paikoissa, kuten rakennuksen romahtaessa ja ihmishenkien pelastamisessa. Ja niin edelleen.

Sivuhuomautuksena saatat kiinnostaa äskettäin tekemäni silmäkriittistä uutisointia Tesla AI Daystä, jossa Elon Musk esitti joitakin kävelyrobotteja Teslan ja yhteiskunnan tulevaisuutena, ks. linkki tähän.

Takaisin käsillä olevaan asiaan. Kun keskustelemme vakavasti tanssivista roboteista tai kävelyroboteista, meidän on otettava tietoisesti huomioon tämän tekoälyn käytön kompromissit tai kokonaissijoitetun pääoman tuotto (Return on Investment). Meidän ei pidä antaa itsemme ihastua liiaksi etuihin, kun niihin liittyy myös kustannuksia.

Uudessa kiiltävässä lelussa voi olla melko terävät reunat.

Kaikki tämä herättää tärkeän, mutta jokseenkin hiljaisen seikan, että osa syistä, miksi tekoälyn aseistusongelma nousee nyt esiin, johtuu tekoälyn etenemisestä kohti autonomista toimintaa. Olemme yleensä odottaneet, että aseet ovat yleensä ihmisten käyttämiä. Ihminen tekee päätöksen ampuako vai käyttääkö aseen. Voimme olettaa, että tämä ihminen on vastuussa teoistaan.

Tekoäly, joka on suunniteltu toimimaan itsenäisesti tai joka voidaan huijata toimimaan niin, näennäisesti poistaisi ihmisen silmukasta. Tekoäly tekee sitten algoritmisesti laskennallisia päätöksiä, jotka voivat johtaa ihmisten tappamiseen tai vahingoittamiseen. Sen lisäksi, että olet huolissasi tekoälyn hallinnan puutteesta, sinulla on myös epäilys siitä, että meillä saattaa olla vaivalloinen aika kantaa vastuu tekoälyn toimista. Meillä ei ole ihmistä, joka olisi ilmeinen yllyttäjämme.

Ymmärrän, että jotkut uskovat, että meidän pitäisi yksinkertaisesti ja suoraan pitää tekoälyä vastuussa toimistaan, ikään kuin tekoäly olisi saavuttanut oivalluksen tai muuten saanut oikeushenkilön aseman (katso artikkelini oikeushenkilön saamisesta tekoälystä käydyistä keskusteluista osoitteessa linkki tähän). Se ei toistaiseksi onnistu. Meidän on jäljitettävä tekoäly ihmisiin, jotka ovat joko kehittäneet sen tai kehittäneet sen. He yrittävät epäilemättä väistää vastuuta laillisesti yrittämällä väittää, että tekoäly meni pidemmälle kuin he olivat kuvitelleet. Tämä on kasvava kiista, jota meidän on käsiteltävä (katso tekoälylakikirjoitukseni saadaksesi näkemyksiä asiaan liittyvistä kiistanalaisista asioista).

Yhdistyneet Kansakunnat (YK) Genevessä tehdyn tiettyjä tavanomaisia ​​aseita koskevan yleissopimuksen (CCW) kautta on vahvistanut yksitoista ei-sitovaa ohjaavaa periaatetta tappaville autonomisille aseille verkossa julkaistun virallisen raportin mukaan (sisältäen viittaukset asiaankuuluvaan kansainväliseen humanitaariseen oikeuteen tai kansainvälisen humanitaarisen oikeuden määräyksiin). , mukaan lukien:

a) Kansainvälistä humanitaarista oikeutta sovelletaan edelleen täysimääräisesti kaikkiin asejärjestelmiin, mukaan lukien mahdollinen tappavien autonomisten asejärjestelmien kehittäminen ja käyttö;

b) Ihmisten vastuu asejärjestelmien käyttöä koskevista päätöksistä on säilytettävä, koska vastuuta ei voida siirtää koneille. Tämä olisi otettava huomioon asejärjestelmän koko elinkaaren ajan;

c) Ihmisen ja koneen välisen vuorovaikutuksen, joka voi olla eri muotoinen ja joka voidaan toteuttaa aseen elinkaaren eri vaiheissa, pitäisi varmistaa, että nouseviin teknologioihin perustuvien asejärjestelmien mahdollinen käyttö tappavien autonomisten asejärjestelmien alalla sovellettavan kansainvälisen oikeuden, erityisesti kansainvälisen humanitaarisen oikeuden, noudattaminen. Ihmisen ja koneen välisen vuorovaikutuksen laatua ja laajuutta määritettäessä on otettava huomioon useita tekijöitä, mukaan lukien toimintaympäristö sekä asejärjestelmän ominaisuudet ja ominaisuudet kokonaisuudessaan.

d) Vastuu kaikkien uusien asejärjestelmien kehittämisestä, käyttöönotosta ja käytöstä CCW:n puitteissa on varmistettava sovellettavan kansainvälisen oikeuden mukaisesti, mukaan lukien tällaisten järjestelmien käyttö vastuullisessa ihmisen komento- ja valvontaketjussa;

e) Valtioiden kansainvälisen oikeuden mukaisten velvoitteiden mukaisesti uuden aseen, sotakeinon tai sodankäyntimenetelmän tutkimisessa, kehittämisessä, hankinnassa tai käyttöönotossa on päätettävä, olisiko sen käyttö joissakin tai kaikissa olosuhteissa kansainvälisen oikeuden kieltää;

f) Kun kehitetään tai hankitaan uusia asejärjestelmiä, jotka perustuvat nouseviin teknologioihin tappavien autonomisten asejärjestelmien, fyysisen turvallisuuden, asianmukaisten ei-fyysisten suojatoimien (mukaan lukien kyberturvallisuus hakkerointia tai tietojen huijausta vastaan) alalla, terroristiryhmien hankinnan riski. ja leviämisen riski olisi otettava huomioon;

g) Riskinarviointien ja lieventämistoimenpiteiden olisi oltava osa uusien teknologioiden suunnittelu-, kehitys-, testaus- ja käyttöönottosykliä kaikissa asejärjestelmissä.

h) Olisi harkittava nousevan teknologian käyttöä tappavien autonomisten asejärjestelmien alalla kansainvälisen humanitaarisen oikeuden ja muiden sovellettavien kansainvälisten oikeudellisten velvoitteiden noudattamisen varmistamiseksi.

(i) Mahdollisia poliittisia toimenpiteitä suunniteltaessa ei tulisi antropomorfisoida uusia teknologioita tappavien autonomisten asejärjestelmien alalla;

j) Keskustelut ja mahdolliset CCW:n puitteissa toteutettavat poliittiset toimenpiteet eivät saisi haitata älykkäiden autonomisten teknologioiden rauhanomaisen käytön edistymistä tai pääsyä niihin.

k) CCW tarjoaa sopivan kehyksen tappavien autonomisten asejärjestelmien alalla nousevan teknologian kysymyksen käsittelemiselle yleissopimuksen tavoitteiden ja tarkoitusten puitteissa. Sopimuksen tavoitteena on löytää tasapaino sotilaallisen välttämättömyyden ja humanitaaristen näkökohtien välillä.

Nämä ja muut erilaiset sodan lait ja aseellisten konfliktien lait eli IHL (International Humanitarian Laws) toimivat tärkeänä ja aina lupaavana oppaana pohtiessamme, mitä voisimme yrittää tehdä autonomisten järjestelmien syntymiselle, jotka on aseistettu, olipa kyseessä sitten Keystone. suunnittelulla tai jälkikäteen menetelmillä.

Jotkut sanovat, että meidän pitäisi ehdottomasti kieltää ne itsenäiset tekoälyjärjestelmät, jotka ovat aseistettavissa. Aivan oikein, maailman pitäisi laskea jalkansa alas ja vaatia jyrkästi, että tekoälyn autonomisia järjestelmiä ei koskaan tule aseistaa. Täydellinen kielto on määrättävä. Tarinan loppu. Piste, piste.

Voimme vilpittömästi toivoa, että tappavien aseistettujen autonomisten järjestelmien kieltoa noudatettaisiin tiukasti ja kuuliaisesti. Ongelmana on, että paljon heiluttelutilaa löytyy varmasti ovelasti mistä tahansa vilpittömästä kiellosta. Kuten sanotaan, säännöt on tarkoitettu rikottavaksi. Voit lyödä vetoa, että missä asiat ovat löysästi-hanhia, riffraff löytää aukkoja ja yrittää silmää silmää kiertää sääntöjä.

Tässä on joitain mahdollisia porsaanreikiä, jotka kannattaa harkita:

  • Väitteet ei-tappavia. Tee ei-tappavia autonomisia asejärjestelmiä (näyttää hyvältä, koska se on kiellon rajan ulkopuolella), jonka voit sitten muuttaa pienellä rahalla tappaviksi (olet kiellon ulkopuolella vasta viime hetkellä).
  • Vain autonomisen järjestelmän vaatimukset. Noudata kieltoa olemalla tekemättä tappaviin autonomisiin järjestelmiin keskittyviä autonomisia järjestelmiä. Sillä välin edisty mahdollisimman paljon sellaisten jokapäiväisten autonomisten järjestelmien suunnittelussa, joita ei (vielä) ole aseistettu, mutta joita voit jälkiasennuksilla aseena.
  • Vaatimukset, joita ei ole integroitu yhdeksi. Luo autonomisia järjestelmiä, joita ei ole lainkaan aseistettu, ja kun aika koittaa, tee aseistus niin, että voit yrittää kiivaasti väittää, että ne ovat kaksi erillistä elementtiä ja siksi väittää, etteivät ne kuulu all-in-one-rubriikin alle. autonominen asejärjestelmä tai sen serkku.
  • Väittää, ettei se ole itsenäinen. Tee asejärjestelmä, joka ei näytä olevan itsenäistä. Jätä tilaa tähän oletettavasti ei-autonomiseen järjestelmään tekoälypohjaisen autonomian luopumiselle. Liitä tarvittaessa autonomia ja olet valmis rullaamaan (siihen asti et ilmeisesti rikkonut kieltoa).
  • Muut

Tappavien autonomisten asejärjestelmien suorassa kieltämisessä on monia muita ilmaistuja vaikeuksia. Kerron niistä muutaman lisää.

Jotkut asiantuntijat väittävät, että kielto ei ole erityisen hyödyllinen, ja sen sijaan pitäisi olla säännöksiä. Ajatuksena on, että nämä välineet ovat sallittuja, mutta niitä valvotaan tiukasti. Siinä on esitetty joukko laillisia käyttötarkoituksia, laillisia kohdentamistapoja, laillisia kykytyyppejä, laillista suhteellisuutta ja vastaavia.

Heidän mielestään suora kielto on kuin laittaisi päänsä hiekkaan ja teeskentelee, että huoneessa olevaa norsua ei ole olemassa. Tämä kiista saa kuitenkin veren kiehumaan niille, jotka vastustavat väitettä, että asettamalla kiellon pystyt vähentämään dramaattisesti muuten kiusausta harjoittaa tällaisia ​​järjestelmiä. Toki jotkut kehuvat kieltoa, mutta ainakin toivottavasti suurin osa ei. Voit sitten keskittää huomiosi keijuihin, etkä joudu sirpaloimaan huomiotasi kaikille.

Nämä keskustelut pyörivät ympäri ja ympäri.

Toinen usein havaittu huolenaihe on, että vaikka hyvät noudattaisivat kieltoa, pahat eivät. Tämä asettaa hyvän surkeaan asentoon. Huonoilla on tällaisia ​​aseistautuneita autonomisia järjestelmiä, mutta hyvillä ei. Kun asiat paljastuvat, että huonoilla on niitä, on liian myöhäistä, että hyvät saavat kiinni. Lyhyesti sanottuna, ainoa viisas teko on valmistautua taistelemaan tulella tulella.

On myös klassinen pelotuskiista. Jos hyvä valinta tehdä aseistautuneita autonomisia järjestelmiä, sitä voidaan käyttää estämään huonoja yrittämästä joutua tappeluun. Joko hyvät ovat paremmin aseistettuja ja siten luopuvat pahoista, tai hyvät ovat valmiita, kun paha kenties paljastaa, että he ovat salaa kehittäneet noita järjestelmiä koko ajan.

Näiden laskurien vastakohta on se, että tekemällä aseistettuja autonomisia järjestelmiä kilpailet asevarustelukilpailussa. Toinen osapuoli pyrkii samaan. Vaikka he eivät teknisesti pystyisikään luomaan tällaisia ​​järjestelmiä uudelleen, he voivat nyt varastaa "hyvien" suunnitelmat, kääntää korkean teknologian sisut tai matkia mitä tahansa, mitä he näyttävät näkevän koeteltuna. tapa saada työ tehtyä.

Aha, jotkut vastalauseet, kaikki tämä saattaa johtaa konfliktien vähenemiseen molemminpuolisen vaikutelman kautta. Jos puoli A tietää, että puolella B on nuo tappavat autonomisten järjestelmien aseet, ja puoli B tietää, että puolella A on ne, he saattavat istua tiukasti eivätkä tule iskemään. Tässä on selkeä molemminpuolisesti varman tuhon (MAD) tunnelma.

Ja niin edelleen.

Tarkastellaan tarkasti toista kappaletta

Olemme jo käsitelleet tässä paljon aihetta ja tarkastelimme vain toistaiseksi avoimen kirjeen ensimmäistä tai aloituskappaletta (yhteensä neljä kappaletta).

On aika katsoa toista kappaletta, tässä:

  • ”Kuten mikä tahansa uusi teknologia, joka tarjoaa uusia ominaisuuksia, kehittyneet mobiilirobotit tarjoavat mahdollisuuden väärinkäyttöön. Epäluotettavat ihmiset voivat käyttää niitä kansalaisoikeuksien loukkaamiseen tai uhkaamiseen, vahingoittamiseen tai pelotteluun. Yksi erityisen huolestuttava alue on aseistus. Uskomme, että aseiden lisääminen etä- tai itsenäisesti ohjattaviin robotteihin, jotka ovat laajasti yleisön saatavilla ja jotka pystyvät navigoimaan aiemmin saavuttamattomiin paikkoihin, joissa ihmiset asuvat ja työskentelevät, nostaa esiin uusia vahinkoriskejä ja vakavia eettisiä ongelmia. Näiden uusien robottien aseistetut sovellukset vahingoittavat myös yleisön luottamusta tekniikkaan tavalla, joka vahingoittaa niiden yhteiskunnalle tuomia valtavia etuja. Näistä syistä emme tue edistyneen liikkuvuuden yleiskäyttöisten robottiemme aseistamista. Niille meistä, jotka olemme puhuneet tästä aiheesta aiemmin, ja niille, jotka ovat tekemisissä ensimmäistä kertaa, tunnemme nyt uutta kiireellisyyttä, kun otetaan huomioon viime kuukausina lisääntynyt yleinen huolenaihe, jonka on aiheuttanut pieni joukko ihmisiä, jotka ovat julkistaneet väliaikaisesti. pyrkimykset aseistaa kaupallisesti saatavilla olevia robotteja” (verkkojulkaisun mukaan).

Kun luet tämän toisen kappaleen, toivon, että näet, kuinka aiempi keskusteluni tässä AI-aseista nousee esiin.

Tarkastellaan muutamia lisäkohtia.

Eräs jonkinlainen epäluulo tietyn sanamuodon suhteen, joka on saanut jotkut hilseilemään, on se, että kertomus näyttää painottavan, että "epäluotettavat ihmiset" voivat käyttää väärin näitä tekoälyrobotteja. Kyllä, todellakin, pahat ihmiset tai pahantekijät voivat saada aikaan ilkeitä tekoja, jotka "käyttävät väärin" AI-robotteja.

Samaan aikaan, kuten tämän keskustelun alussa huomautettiin, meidän on myös tehtävä selväksi, että tekoäly itsessään voi mennä pieleen, mahdollisesti sulautettujen vikojen tai virheiden ja muiden vastaavien komplikaatioiden vuoksi. Ilmaistu huoli on, että vain korostaa mahdollisuuksia epäluotettavia ihmisiä se näyttää jättävän huomioimatta muut haitalliset mahdollisuudet. Vaikka useimmat tekoälyyritykset ja -toimittajat eivät halua myöntää sitä, on olemassa lukuisia tekoälyjärjestelmiin liittyviä ongelmia, jotka voivat heikentää autonomisten järjestelmien turvallisuutta ja luotettavuutta. Katso näkemykseni tekoälyn turvallisuudesta ja tiukkojen ja todistettavissa olevien suojatoimien tarpeesta linkki tähän, Esimerkiksi.

Toinen merkittävä seikka, joka on tullut esille avoimen kirjeen tutkineiden joukossa, sisältää siihen sisältyvän väitteen, jonka mukaan tekoälyroboteihin liittyvä yleinen luottamus saattaa heikentyä.

Toisaalta tämä on pätevä väite. Jos tekoälyrobotteja käytetään tekemään pahoja tarjouksia, voit lyödä vetoa siitä, että yleisö tulee melko kuumaksi. Kun yleisö kiihtyy, voit lyödä vetoa, että lainsäätäjät hyppäävät hyökkäykseen ja pyrkivät säätämään lakeja, jotka rajoittavat tekoälyrobotteja ja tekoälyrobottien tekijöitä. Tämä puolestaan ​​voi lamauttaa tekoälyrobotiikkateollisuuden, jos lait ovat kaiken kattavat, ja lopettaa tekoälyrobottien hyödyt. Tavallaan vauva voi sinkoutua ulos kylpyveden mukana (vanha ilmaus, joka todennäköisesti ansaitsee jäädä eläkkeelle).

Myös ilmeinen kysymys on, onko tämä väite tekoälyrobotteja kohtaan tunnetun yleisen luottamuksen heikkenemisen estämisestä jokseenkin itsekäs uskomus vai onko se meidän kaikkien eduksi (voiko se olla molempia?).

Sinä päätät.

Tulemme nyt avoimen kirjeen erityisen lihavaan osaan:

  • ”Vapaamme, ettemme aseistele edistyneen liikkuvuuden yleiskäyttöisiä robottejamme tai kehittämiämme ohjelmistoja, jotka mahdollistavat edistyneen robotiikan, emmekä tue muita tekemään niin. Mikäli mahdollista, tarkistamme huolellisesti asiakkaidemme suunnittelemat sovellukset mahdollisen aseistamisen välttämiseksi. Lupaamme myös tutkia sellaisten teknisten ominaisuuksien kehittämistä, jotka voisivat lieventää tai vähentää näitä riskejä. Selvyyden vuoksi emme ota kantaa olemassa oleviin teknologioihin, joita kansakunnat ja niiden valtion virastot käyttävät puolustaakseen itseään ja noudattaakseen lakejaan” (kuten verkossa on julkaistu).

Voimme purkaa tämän.

Istu alas ja valmistaudu sen mukaisesti.

Oletko valmis tuliseen polarisaatioon?

Myönteistä on, että jotkut julistavat äänekkäästi, että nämä tekoälyrobottien valmistajat antaisivat tällaisen lupauksen. Näyttää siltä, ​​että nämä robottivalmistajat pyrkivät onneksi olemaan asettamatta "edistyneen liikkuvuuden yleiskäyttöisiä" robottejaan. Lisäksi avoimessa kirjeessä sanotaan, että he eivät tue muita, jotka tekevät niin.

Kriitikot ihmettelevät, onko siellä jotain näppärää sanan tekoa.

Esimerkiksi missä "edistynyt liikkuvuus" alkaa ja päättyy? Jos robottivalmistaja suunnittelee a yksinkertainen-liikkuvuuden tekoälyrobotti edistyneen robotin sijaan (joka on määrittelemätön pala tekniikangonia), jätetäänkö se sen ulkopuolelle emme olla aseistettu? Näin ollen ilmeisesti on ok aseistaa yksinkertaisen liikkuvuuden tekoälyrobotteja, kunhan ne eivät ole ns. kehittynyt.

Sama pätee yleiskäyttöisten robottien muotoiluun. Jos tekoälyrobotti on suunniteltu erityisesti aseistamiseen ja siksi sitä ei ole, sanotaanko a yleinen tarkoitus robotti, tuleeko siitä kannattava poissulkeminen soveltamisalan ulkopuolelle?

Saatat vatvoa näiden kiukuttelujen kanssa ja kiihkeästi väittää, että tämä on vain avoin kirje eikä XNUMX-sivuinen oikeudellinen asiakirja, jossa täsmennetään kaikki nurkat ja kolot.

Tämä vie meidät joidenkin ilmaisemaan näennäisesti makrotason epäluottamukseen. Mitä "lupaus" pohjimmiltaan tarkoittaa?

Jotkut kysyvät, missä naudanliha on?

Yritys, joka tekee tällaisen lupauksen, näyttää tekevän sen ilman todellista panosta pelissä. Jos minkä tahansa tämän lupauksen allekirjoittaneen yrityksen ylin messinki päättää olla enää noudattamatta lupausta, mitä tälle yritykselle tapahtuu? Saavatko johtajat tiivistetysti purkitettuja? Aikooko yritys lopettaa toimintansa ja pyytää vilpittömästi anteeksi lupauksen rikkomista? Ja niin edelleen.

Sikäli kuin voidaan päätellä, lupauksen rikkomisesta ei ole erityistä rangaistusta tai rangaistusta.

Saatat väittää, että maine voi vahingoittaa. Panttausyritys saattaa joutua pöyristymään markkinoilla, koska se on tehnyt lupauksen, jota se ei enää noudattanut. Tämä tietysti myös edellyttää, että ihmiset muistavat, että lupaus tehtiin. Siinä oletetaan myös, että sitoumuksen rikkominen havaitaan jollakin tavalla (näyttää selvästi epätodennäköiseltä, että yritys kertoo kaiken, jos se tekee niin). Lupauksen rikkoja täytyisi kutsua esiin, mutta tällaisesta ongelmasta voi kuitenkin muodostua pelkkä melu jatkuvassa tsunamissa, joka uutisoi tekoälyrobotiikkavalmistajista.

Mieti toista näkökulmaa, joka on tullut esiin.

Jokin suurempi yritys ostaa panttiyrityksen. Suurempi yritys päättää alkaa muuttaa edistyneen liikkuvuuden yleiskäyttöisiä robotteja tekoälyaseistetuiksi versioiksi.

Onko tämä lupauksen rikkominen?

Suurempi yritys saattaa väittää, ettei se ole rikkomus, koska he (suurempi yritys) eivät koskaan tehneet lupausta. Samaan aikaan vaarattomat tekoälyrobotit, jotka pienempi yritys on koonnut ja kehittänyt näennäisesti altruistisimmilla aikeilla, muuttuvat melkein yhdessä yössä aseistetuiksi.

Jotenkin heikentää lupausta, vaikka voisi sanoa, että pienempi yritys ei tiennyt, että tämä joskus tapahtuisi. He olivat tosissaan halussaan. Se, mitä suurempi ostoyritys päätti tehdä, ei ollut heidän hallinnassaan.

Jotkut myös kysyvät, onko tästä mitään laillista vastuuta.

Panttausyritys päättää muutaman kuukauden kuluttua, ettei se aio noudattaa lupausta. He ovat kokeneet mielenmuutoksen. Voidaanko yritys haastaa oikeuteen, koska se on luopunut antamastaan ​​lupauksesta? Kuka haastaisi oikeuteen? Mikä olisi kanteen peruste? Esiin tulee joukko juridisia ongelmia. Kuten he sanovat, voit haastaa melkein kenet tahansa, mutta voitko sinä voiton, on kokonaan eri asia.

Ajattele tätä toisella tavalla. Pantausyritys saa mahdollisuuden tehdä todella ison sopimuksen myydäkseen kokonaisen joukon edistyksellisen liikkuvuuden yleiskäyttöisiä robottejaan massiiviselle yritykselle, joka on valmis maksamaan nenän kautta robottien hankkimisesta. Se on yksi niistä kerran elämässä tapahtuvista miljoonien dollarien ostotarjouksista.

Mitä tekoälyrobotiikkayrityksen pitäisi tehdä?

Jos tekoälyrobotiikan panttiyritys käydään julkisesti kaupankäynnin kohteena, ne pyrkivät lähes varmasti myymään (samaa voidaan sanoa yksityisessä omistuksessa olevasta yrityksestä, joskaan ei aivan niin). Kuvittele, että panttiyritys on huolissaan siitä, että ostaja saattaa yrittää aseistaa robotteja, vaikka oletetaan, että tällaista keskustelua ei ole pöydällä. On vain huhuttu, että ostaja voisi tehdä niin.

Näin ollen panttiyritys asettaa lisensseihinsä, että robotteja ei saa aseistaa. Ostaja vastustaa tätä kieltä ja astuu pois ostosta.

Kuinka suurelta voitolta lupaava tekoälyrobotiikkayritys vain käveli pois?

Onko olemassa kohtaa, jossa oma voitto ylittää lisensointirajoitusvaatimuksen sisällyttämisen (tai ehkä laillisesti rajoituksen sanamuodon siten, että sallitaan heiluttelutila ja silti tehdään kauppa)? Luulen, että voit nähdä ongelman. Tällaisia ​​skenaarioita on helppo keksiä. Kysymys kuuluu, tuleeko tällä lupauksella hampaita. Jos on, millaiset hampaat?

Lyhyesti sanottuna, kuten tämän keskustelun alussa mainittiin, jotkut ovat vakuuttuneita tämäntyyppisen lupauksen tekemisestä, kun taas toiset ottavat himmeämmän näkemyksen siitä, kestääkö lupaus vettä.

Siirrymme eteenpäin.

Lupauksen saaminen

Avoimen kirjeen neljäs ja viimeinen kappale sanoo näin:

  • "Ymmärrämme, että sitoutumisemme ei yksin riitä ratkaisemaan näitä riskejä täysimääräisesti, ja siksi kehotamme päätöksentekijöitä työskentelemään kanssamme edistääksemme näiden robottien turvallista käyttöä ja estääksemme niiden väärinkäytön. Kehotamme myös kaikkia robotiikkayhteisön organisaatioita, kehittäjiä, tutkijoita ja käyttäjiä antamaan samanlaisia ​​lupauksia olla rakentamatta, valtuuttamatta, tukematta tai sallimatta aseiden kiinnittämistä tällaisiin robotteihin. Olemme vakuuttuneita siitä, että näiden teknologioiden hyödyt ihmiskunnalle ovat vahvasti suuremmat kuin väärinkäytön riskit, ja olemme innoissamme valoisasta tulevaisuudesta, jossa ihmiset ja robotit työskentelevät rinnakkain vastatakseen joihinkin maailman haasteisiin” (verkkojulkaisun mukaan).

Tässä avoimen kirjeen viimeisessä osassa on useita lisäelementtejä, jotka ovat nostaneet vihaa.

Poliittisten päättäjien puoleen soittaminen voi olla hyvin harkittua tai huonosti harkittua, jotkut väittävät. Saatat saada päätöksentekijöitä, jotka eivät ole perehtyneet näihin asioihin, tekemään klassisen kiireisen tuomion ja laatimaan lakeja ja määräyksiä, jotka anastavat tekoälyrobottien kehityksen. Aiemmin esitetyn huomion mukaan tekoälyrobottien kehitystä edistävä innovaatio kenties häiriintyy tai tukahdutetaan.

Parempi olla varma, että tiedät mitä pyydät, kriitikot sanovat.

Tietenkin vasta-argumentti on se, että kertomuksessa todetaan selvästi, että poliitikkojen tulisi työskennellä tekoälyrobotiikkayritysten kanssa selvittääkseen, kuinka tällaisia ​​lakeja ja määräyksiä voidaan oletettavasti järkevästi laatia. Vasta-argumentin vastakohta on, että päättäjien voidaan katsoa katsovan tekoälyrobotiikan tekijöitä, jos he huolehtivat heidän mielijohteistaan. Vasta-argumentin vastakohta on, että on luonnollisesti välttämätöntä työskennellä tekniikan tuntevien kanssa, tai muuten lopputulos on mahdollisesti ilkeä. Jne.

Joillakin on kenties vinkuteltaessa ollut närästystä, joka kehottaa kaikkia tekemään samanlaisia ​​lupauksia, ettei kiinnittäminen aseita edistyneen liikkuvuuden yleiskäyttöisiin robotteihin. Avainsana siellä on sana kiinnittäminen. Jos joku tekee tekoälyrobotin, joka sisältää tai saumattomasti upottaa aseita, se näyttää kiertävän sanan kiinnittäminen jotain. Voit nähdä sen nyt, joku väittää kiivaasti, että ase ei ole kiinnitetty, se on täysin osa tekoälyrobottia. Päästä yli siitä, he huudahtavat, emme ole tuon lupauksen piirissä, ja he olisivat muuten voineet jopa sanoa, että olivat.

Tämä nostaa esiin toisen valituksen pantin pysyvyyden puutteesta.

Voiko yritys tai kuka tahansa, joka päättää tehdä tämän lupauksen, milloin tahansa ilmoittaa olevansa sitoutumatta siihen, että hän haluaa tehdä niin ja mistä tahansa syystä?

Ilmeisesti niin.

Lupausten tekemisestä ja siitä, millaista vetovoimaa ne saavat aikaan, pyöritetään paljon.

Yhteenveto

Jep, saatat sanoa, että näitä yrityksiä, jotka yrittävät tehdä oikein, rummutetaan yrittäessään tehdä oikein.

Mitä maailmallemme on tullut?

Jokaisen, joka tekee tällaisen lupauksen, tulisi antaa epäilys, jonka voit intohimoisesti pitää kiinni. He astuvat julkisuuteen tehdäkseen rohkean ja tärkeän panoksen. Jos alamme pilkata heitä sen takia, se varmasti pahentaa tilannetta. Kukaan ei halua tehdä sellaista lupausta. Yritykset ja muut eivät edes yritä. He piiloutuvat eivätkä varoita yhteiskuntaa siitä, mitä nuo rakkaat tanssirobotit voivat vaarallisesti muuttua.

Skeptikot julistavat, että tapa saada yhteiskunta viisastumaan edellyttää muita toimia, kuten fantastisen tanssivien tekoälyrobottien esittelyn luopumista. Tai ainakin tehdä siitä tasapainoisempi toiminta. Sen sijaan, että matkisivat vain rakastettuja lemmikkieläimille uskollisia koiria, havainnollistaa, kuinka tanssivat robotit voivat olla enemmän muistuttavia kuin villejä valloittavia vihaisia ​​susia, jotka voivat repiä ihmisiä paloiksi epäröimättä.

Se saa enemmän huomiota kuin lupaukset, he rukoilevat.

Lupaukset voivat epäilemättä olla melkoinen ongelma.

Kuten Mahatma Gandhi kaunopuheisesti sanoi: "Riippumatta siitä, kuinka selkeä lupaus on, ihmiset kääntävät ja vääntävät tekstiä oman tarkoituksensa mukaan."

Thomas Jefferson sanoi lupauksista kenties päättääkseen tämän: "Vapaamme toisillemme elämämme, omaisuutemme ja pyhän kunniamme."

Mitä tulee tekoälyroboteihin, niiden autonomiaan, aseistamiseen ja vastaaviin, olemme kaikki lopulta yhdessä. Yhteisen lupauksemme tulee olla ainakin se, että pidämme nämä asiat eturintamassa, pyrimme löytämään keinoja selviytyä näistä edistysaskeleista ja jollakin tavalla löytää tiemme kunniamme, omaisuutemme ja elämämme turvaamiseksi.

Voimmeko luvata sen?

Toivon niin.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robottivalmistajat-sanoen-he-ai-a-aseiden/