Tekoälyn etiikka kamppailee sekä tekoälyyn perustuvien autonomisten asejärjestelmien tulisen yksi-kaksi lyönnin kanssa että tekoälyyn perustuvien autonomisten järjestelmien hyväksikäytön kanssa, jotka on pirullisesti aseistettu

Nuo upeat tanssivat nelijalkaiset robotit.

Olen varma, että olet nähnyt ne virusvideot nelijalkaisista robottijärjestelmistä, jotka tanssivat ja tanssivat näennäisesti ilahduttavilla ja koiramaisilla rakastetuilla tavoilla. Näyttää siltä, ​​​​että me nautimme näiden tekoälyn ohjaamien robottien näkemisestä, kun ne kiipeävät esteiden yli ja näyttävät saavan herkän jalansijan laatikoiden päällä tai sen jälkeen, kun ne on asetettu epävarmaan kaapin päälle. Heidän ihmiskäsittelijänsä tönäisevät tai työntävät toisinaan leikkiviä nelijalkaisia ​​robotteja, mikä vaikuttaa raivostuttavan epäreilulta ja voi helposti nostaa raivoasi noiden humanoidien räikeästä kohtelusta.

Mietin kuitenkin, oletko nähnyt ei-niin viraalisia videoita, joiden kaliiperi on täysin erilainen.

Valmistaudu.

Laajassa julkaisussa on videoita, joissa näytetään samanlaisia ​​nelijalkaisia ​​robotteja, jotka on varustettu jollain tavalla voimakkailla aseilla.

Esimerkiksi konekivääri tai vastaava tuliase asennetaan muuten tutun tanssivan ja hyppivän robotin päälle. Nelijalkaisen robotin ja aseen laukaisumekanismin välillä on elektroninen yhteys. Nyt aseistettu tietokonekävelevä väline näytetään astelevan sinne, missä napakymppi on asetettu, ja konekivääriä ammutaan kiivaasti maaliin. Naulattuaan myöhemmin osittain tuhoutuneen kohteen, nelijalkainen robotti tanssii ja hyppää lähellä olevien esteiden ympäri ja asettuu riviin toistaakseen saman toiminnon yhä uudelleen ja uudelleen muissa uusissa kohteissa.

Ei aivan sitä, mitä olisit voinut odottaa näkeväsi. Tämä todellakin poistaa keveyden ja suhteellisen ilon, kun katselee rehellisesti, kuinka ne pehmoiset nelijalkaiset robotit tekevät tehtävänsä. Tervetuloa näennäisen ankaraan todellisuuteen vaaraton autonomiset järjestelmät muunnetaan tai muunnetaan jyrkästi aseistetuiksi. Kovalla ponnistelulla voit yhdessä yössä saada harkitun "aseettomattoman" autonomisen järjestelmän jälkiasennettuna sisältämään täysiä aseita.

Se on joissain olosuhteissa melkein helppoa.

Aion keskustella tästä kiivaasti kiistellystä aiheesta ja kattaa nousevat melko kovat tekoälyn eettiset epäkohdat. Teemme matkan autonomisiin järjestelmiin, tekoälyyn, autonomisiin ajoneuvoihin, aseistukseen ja lukuisiin niihin liittyviin eettisiin tekoälyihin liittyviin ongelmiin. Jatkuva ja laaja kattavuus tekoälyn eettisyydestä ja eettisestä tekoälystä, katso linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Aloitetaan muutamista peruskivistä.

Keskustelun vuoksi hyväksy, että on kaksi päätapaa luokitella autonomiset järjestelmät, jotka on aseistettu aseilla:

1) Autonomiset asejärjestelmät (suunnittelultaan)

2) Autonomiset järjestelmät, jotka on aseistettu (jälkikäteen)

Näiden kahden kategorian välillä on tärkeä ero.

Ensin määritämme an autonominen asejärjestelmä olla alusta alkaen tietokoneistettu luomus, joka on tarkoituksellisesti tarkoitettu aseeksi. Kehittäjät ajattelivat, että he halusivat suunnitella aseen. Heidän selkeänä tavoitteenaan on tuottaa ase. He tiesivät voivansa yhdistää aseet integroidusti uusimpiin autonomisten järjestelmien teknologioihin. Tämä on ase, joka ratsastaa korkean teknologian aallolla, joka saavuttaa autonomisen liikkeen ja autonomisen toiminnan (täsmennen tarkemmin pian).

Sitä vastoin, toisessa tapauksessa, tarkastelemme kysymystä autonomisista järjestelmistä, joilla ei ole mitään erityistä suuntaa aseisiin. Nämä ovat autonomisia järjestelmiä, joita kehitetään muihin tarkoituksiin. Kuvittele itseohjautuva ajoneuvo, kuten itseohjautuva auto, jota käytetään tarjoamaan kaikille liikkuvuutta ja auttamaan vähentämään tuhansia vuosittaisia ​​kuolemantapauksia, jotka johtuvat ihmisen ajamisesta ja ihmisten käyttämistä autoista (katso perusteellinen raporttini klo linkki tähän). Ase ei näytä ottavan huomioon noissa yhteiskunnallisesti kannustavissa pyrkimyksissä saada ihmiset ulos ratin takaa ja laittaa tekoäly sen sijaan kuljettajan istuimelle.

Mutta nuo vaarattomat autonomiset järjestelmät voidaan aseistaa, jos ihmiset haluavat tehdä niin.

Viittaan tähän toiseen kategoriaan sitten nimellä autonomiset järjestelmät, jotka on aseistettu. Autonominen järjestelmä luotiin alun perin ja hartaasti oletettavasti ei-asekäyttöistä tarkoitusta varten. Siitä huolimatta unenomaisen altruistisen toivon kaataa joku jossain, joka saa ajatuksen siitä, että tämä juoni voitaisiin aseistella. Yhtäkkiä pehmoiselta vaikuttaneesta autonomisesta järjestelmästä on tullut tappava ase merkitsemällä jonkinlaisia ​​aseominaisuuksia (kuten aiemmin mainitut nelijalkaiset koiramaiset robotit, joiden ominaisuuksiin on lisätty konekivääri tai vastaava tuliase) .

Valitettavasti nämä kaksi luokkaa päätyvät jokseenkin samaan paikkaan, nimittäin tarjoamalla kyvyn käyttää autonomisia järjestelmiä aseisiin mahdollisesti tappavalla pohjalla.

Päätepisteeseen pääseminen on todennäköisesti erilainen.

Suoraan aseistetuissa autonomisissa järjestelmissä, jotka oli sidottu aseiksi, asenäkökohdat ovat tyypillisesti edessä ja keskellä. Voisi sanoa, että autonomisen järjestelmän puolet ovat kietoutuneet minkä tahansa harkittavan aseen kulmakiven ympärille. Kehittäjien ajatteluprosessi on jossain määrin sen linjan mukainen, kuinka ase voi hyödyntää autonomisten järjestelmien tuloa.

Toinen näkökulma ei yleensä ole ollenkaan sitä ajattelutapaa. Kehittäjät haluavat saada aikaan huippuluokan autonomisen järjestelmän, ehkä ihmiskunnan parantamiseksi. Nämä kehittäjät panivat vilpittömän sydämensä ja sielunsa itsenäisen järjestelmän tekemiseen. Tämä on heidän keksintönsä ydin. He eivät ehkä kuvittele, että kukaan anastaisi tai horjuttaisi heidän ihmeellisen hyödyllisen laitteensa. He ovat autuaasti ihastuneet yhteiskunnallisiin etuihin, joita muodostetaan ja tuotetaan autonomiseen järjestelmään.

Sanotaan jossain vaiheessa, että kolmannet osapuolet ymmärtävät, että autonominen järjestelmä voidaan muuttaa aseistautumaan. Ehkä he huijaavat kehittäjiä antamaan heille autonomisen järjestelmän yleviin tarkoituksiin. Suljettujen ovien takana nämä pahantekijät päättävät lujasti lisätä asekapasiteettia autonomiseen järjestelmään. Voila, viattomuus muuttui suoraksi aseeksi.

Asioiden ei tarvitse edetä sillä tavalla.

Ehkä kehittäjille kerrottiin, että he olivat kehittämässä viatonta autonomista järjestelmää, mutta rahoittajilla tai toiminnan ohjaajilla oli kuitenkin muita tarkoituksia. Ehkä autonomisen järjestelmän pyrkimys todella alkoi viattomasti, mutta sitten kun laskut piti maksaa, johto katkaisi sopimuksen rahoituslähteen kanssa, joka haluaa autonomiset järjestelmät ilkeistä syistä. Toinen mahdollisuus on, että kehittäjät tiesivät, että myöhempää käyttöä saatettiin käyttää aseistamiseen, mutta he luulivat ylittävänsä tuon tuskallisen sillan, kun tai jos se koskaan syntyy. Jne.

On monia ja monia erilaisia ​​polkuja siihen, miten tämä kaikki tapahtuu.

Saatat kiinnostaa sitä, että olen kuvaillut aiemmissa sarakkeissa, että tietoisuus tekoälyn eettisyydestä on lisääntymässä. kaksikäyttötuotteiden nykyajan tekoälyn elementtejä, ks linkki tähän. Sallikaa minun tuoda sinut lyhyesti vauhtiin.

Hyväksi suunniteltu tekoälyjärjestelmä voi joskus olla pahan partaalla, ehkä melko yksinkertaisten muutosten kautta, ja vastaavasti sitä pidetään kaksikäyttöisenä. Äskettäin uutisissa oli tekoälyjärjestelmä, joka rakennettiin löytämään kemikaaleja, jotka voivat olla tappajia, ja jonka kehittäjät halusivat varmistaa, että voimme välttää tällaisia ​​​​huonosti suunniteltuja kemikaaleja tai varoa niitä. Kävi ilmi, että tekoälyä voitaisiin jossain määrin muokata niin, että ne paljastaisivat omistautuneena nämä tappavat kemikaalit ja siten antaisivat pahikset tietävän, millaisia ​​kemikaaleja mahdollisesti keitetään heidän järjetöntä pahaa suunnitelmaansa varten.

Autonomiset järjestelmät voivat todistetusti sopia tähän kaksikäyttöiseen tilaan.

Jossain määrin siksi tekoälyn etiikka ja eettinen tekoäly ovat niin tärkeä aihe. Tekoälyn etiikan ohjeet saavat meidät pysymään valppaina. Tekoälyteknikot voivat toisinaan olla kiinnostuneita teknologiasta, erityisesti huipputekniikan optimoinnista. He eivät välttämättä ota huomioon suurempia yhteiskunnallisia seurauksia. Tekoälyn eettinen ajattelutapa ja sen integroiminen tekoälyn kehittämiseen ja harjoittamiseen on elintärkeää asianmukaisen tekoälyn tuottamiseksi, mukaan lukien (ehkä yllättäen tai ironisesti) arvioitaessa, kuinka tekoälyn etiikka otetaan käyttöön yrityksissä.

Tekoälyn eettisten ohjeiden yleisen soveltamisen lisäksi on vastaava kysymys, pitäisikö meillä olla lakeja säätelemään tekoälyn eri käyttötapoja. Liittovaltion, osavaltion ja paikallisen tason uudet lait koskevat tekoälyn suunnittelun laajuutta ja luonnetta. Pyrkimys tällaisten lakien laatimiseen ja säätämiseen on asteittaista. Tekoälyn etiikka toimii ainakin harkittuna pysähdyspaikkana, ja se sisällytetään lähes varmasti jossain määrin suoraan näihin uusiin lakeihin.

Huomaa, että jotkut väittävät jyrkästi, ettemme tarvitse uusia tekoälyä koskevia lakeja ja että nykyiset lakimme ovat riittäviä. Itse asiassa he varoittavat, että jos säädämme osan näistä tekoälylaeista, alistamme kultaisen hanhien hillitsemällä valtavia yhteiskunnallisia etuja tarjoavia tekoälyn edistysaskeleita.

Autonomia ja ase kahtena ohjeena

Jotkut käyttävät tunnuslausetta varoittaakseen kaikenlaisista aseistetuista autonomisista järjestelmistä, joita kehitetään kollektiivisesti teurasrobotit.

Tämä tuo esiin lisänäkökohdan, jota meidän pitäisi pohtia.

Onko autonomisen asejärjestelmän ja/tai autonomisen järjestelmän, joka on aseistettu, oltava tappavan tai tappavan robotin valtaosa?

Jotkut väittävät, että olisimme voineet ehdottomasti ei-tappava myös aseistettuja autonomisia järjestelmiä. Tästä näkökulmasta vaikuttaisi siis erittäin sopimattomalta käyttää ilmaisuja, kuten teurasrobotit tai tappajarobotit. Ei-tappava variantti pystyisi oletettavasti hillitsemään tai aiheuttamaan vahinkoa, joka ei ole tappava. Tällaiset järjestelmät eivät ole tappavia, ne ovat vähemmän vammoja tuottavia. Älä liioittele kykyjäsi, sanovat ne, jotka väittävät, ettei meidän tarvitse olla huolissaan suorasta tappamiskoneesta.

Meillä saattaa siis olla tämä:

  • Tappavat autonomiset asejärjestelmät
  • Tappavat autonomiset järjestelmät, jotka on aseistettu
  • Ei-tappavat autonomiset asejärjestelmät
  • Ei-tappavat autonomiset järjestelmät, jotka on aseistettu

Tietenkin vasta-argumentti on se, että millä tahansa autonomisella järjestelmällä, joka on aseistettu, näyttäisi olevan potentiaalia liukua kuolleisuuden maailmaan, vaikka se oletetaan vain käytettäväksi ei-tappavalla perusteella. Vähitellen kaksivaiheinen siirtyminen ei-tappavasta tappavaan tapahtuu nopeasti, kun olet jo saanut aseen käsiisi autonomisen järjestelmän keskellä. Sinun olisi vaikea antaa rautainen takuu siitä, että ei-tappava ei ole päässyt tappavalle areenalle (vaikka jotkut yrittävätkin tehdä niin, matemaattisesti).

Ennen kuin menemme paljon syvemmälle tähän yleiseen autonomisten järjestelmien ja aseistuksen aiheeseen, saattaa olla kätevää tuoda esiin jotain muuta, joka vaikka ehkä ilmeinen ei välttämättä ole näkyvästi mielessä.

Tässä se on:

  • On olemassa tekoälynäkökohta, joka on olennainen osa autonomista järjestelmää
  • On asenäkökohta, joka on tämän yhtälön asepuoli
  • Tekoäly saattaa myös olla yhteydessä aseisiin

Puretaan se.

Oletetaan, että nykypäivän autonomiset järjestelmät vaativat tekoälyä taustalla olevan tietokoneistetun keinon tuoda esiin autonomisia puolia. Mainitsen tämän, koska voit yrittää väittää, että saatamme käyttää muita kuin tekoälyyn liittyviä teknologioita ja tekniikoita autonomisten järjestelmien tekemiseen, mikä vaikka totta, vaikuttaisi yhä vähemmän todennäköiseltä. Pohjimmiltaan tekoäly mahdollistaa suuremman autonomian, ja useimmat hyödyntävät tekoälyn huipputeknologiaa vastaavasti.

Okei, meillä on tekoälypohjainen ominaisuus, joka on jotenkin infusoitunut autonomiseen järjestelmään ja ohjaa ja ohjaa autonomista järjestelmää.

Pidä se käden ulottuvilla peukalosääntönä.

Näyttää ilmeiseltä, että meillä on myös oltava jonkinlainen aseita, muuten miksi keskustelemme täällä autonomisten järjestelmien aiheesta ja aseita. Joten kyllä, ilmeisesti on olemassa jonkinlainen ase.

En aio perehtyä siihen, millaisia ​​aseita saatetaan käyttää. Voit yksinkertaisesti korvata mitä tahansa aseita, jotka tulevat mieleesi. Siellä saattaa olla tarkat aseet. Saattaa olla massasuuntautuneita tuhoavia aseita. Se voi olla jotain luoteja tai ammuksia. Se voi olla jotain, jossa on kemikaaleja tai atomihaihtuvia komponentteja. Lista on loputon.

Lisäksi on otettava huomioon, onko tekoäly yhdistetty aseisiin vai ei. Tekoäly saattaa vain ottaa aseet mukaansa. Nelijalkaisen robotin tapauksessa, joka ampui asetta, saattaa olla, että aseen ampuu ihminen, jonka kaukosäädin on kytketty aseen laukaisuun. Koiramainen robotti navigoi kohtauksessa, ja sitten on etäisen ihmisen tehtävänä painaa liipaisinta.

Toisaalta tekoäly saattaa olla ikään kuin liipaisimen vedin. Tekoäly on ehkä suunniteltu paitsi navigoimaan ja ohjaamaan, myös aktivoimaan aseen. Tässä mielessä tekoäly tekee kaiken A:sta Z:hen. Ei ole riippuvaisuutta etäisestä ihmisestä asioiden asepuolen suorittamisessa. Tekoäly on ohjelmoitu tekemään niin.

Selventääksemme tässä erityisessä aseistettujen autonomisten järjestelmien käyttötapausta, meillä on seuraavat mahdollisuudet:

  • Autonominen järjestelmä: Tekoäly pyörittää autonomista järjestelmää täysin yksinään
  • Autonominen järjestelmä: Tekoäly pyörittää autonomista järjestelmää, mutta myös silmukassa oleva ihminen voi puuttua asiaan
  • Aseet: Etäihminen käyttää aseita (AI ei)
  • Aseet: Tekoäly ohjaa aseita, mutta myös silmukassa oleva ihminen voi puuttua asiaan
  • Aseet: Tekoäly käyttää aseistustaan ​​täysin yksin

Olen aiemmin käsitellyt ihmisen silmukan muunnelmia autonomisista järjestelmistä ja autonomisista ajoneuvoista, ks. linkki tähän.

Kun katsot niitä hauskoja videoita tanssivista ja hyppivistä nelijalkaisista roboteista, niiden oletetaan yleensä olevan robotteja, joita yksinomaan tekoäly ohjaa navigointiin (no, se on tavallinen tai sopiva etiketti niiden joukossa, jotka ovat syvästi näihin asioihin). Näin voit myös perustellusti olettaa. Et tietenkään tiedä sitä varmaksi. Voi olla, että etäkäyttäjä ohjaa robotteja. On myös mahdollista, että tekoäly hoitaa osan ohjauksesta, ja etä-ihmisoperaattori myös tekee niin, ehkä auttaa tekoälyä, jos robotti joutuu vaikeaan asentoon eikä pysty laskemaan laskennallisesti käyttökelpoista keinoa heilumaan itsensä vapaaksi.

Asian ydin on, että tekoälyn ja autonomisten järjestelmien ja aseistuksen yhdistämisestä on olemassa lukuisia makuja. Joillakin on tekoäly, joka pyörittää autonomista järjestelmää, mutta ei käytä aseita. Ihminen kenties ohjaa aseita etäältä. Toinen näkökulma on, että aseet saatetaan aktivoida etukäteen ja autonominen järjestelmä toimittaa aktivoidun aseen, joten tekoäly ei itse osallistunut suoraan aseen laukaisuun vaan toimi sen sijaan jakeluajoneuvona. Ja voi olla, että tekoäly on sananlasku kaikkien aikojen huippu, ja se käsittelee myös asekäytön autonomisen järjestelmän näkökohtia.

Valitse.

Sillä välin muista, että silmukassa oleva ihminen on suuri tekijä keskusteluissa tästä aiheesta.

Eräs jakoviiva on joidenkin mielestä se, että jos tekoäly tekee kohdistusta ja ammuntaa (tai mitä tahansa ase sisältää), koko sarja ja kaboodle on siirtynyt ei-ei-maahan. Tämä näennäisesti eroaa tavanomaisista tule ja unohda -aseista, joilla on ennalta kohdistettu ihmisen määrittämä valikoima, kuten partiolennokki, jossa on ohjus valmiina ampumaan kohdetta, joka oli jo ihmisen valitsema.

Jotkut ihmettelevät, miksi aseistetut autonomiset järjestelmät eivät aina sisältäisi silmukassa olevaa ihmistä koko prosessin ajan, jolloin autonominen järjestelmä on aktiivisesti käynnissä. Vaikuttaa siltä, ​​että voisimme olla parempia, jos tiukka vaatimus olisi, että kaikissa sellaisissa aseistetuissa autonomisissa järjestelmissä on oltava ihminen silmukassa, joko autonomisen järjestelmän tai aseiden (tai molempien) käyttöä varten. . Oletuksena olevan varman ja vakaan ihmiskäden pitäminen tässä tekoälysekoituksessa saattaa tuntua aivan älykkäältä.

Valmistaudu pitkälle listalle syistä, miksi tämä ei välttämättä ole mahdollista.

Harkitse näitä vaikeuksia:

  • Silmukassa oleva ihminen ei ehkä ole tarpeeksi nopea reagoimaan ajoissa
  • Silmukassa olevalla ihmisellä ei ehkä ole tarpeeksi tietoa vastatakseen velvollisuudentuntoisesti
  • Human in the-loop ei ehkä ole käytettävissä tarvittavana aikana
  • Silmukassa oleva ihminen saattaa olla epävarma eikä toimi tarvittaessa
  • Silmukassa oleva ihminen saattaa tehdä "väärän" päätöksen (suhteellisesti)
  • Ihminen silmukassa ei ehkä ole käytettävissä järjestelmästä tarvittavana aikana
  • Silmukassa oleva ihminen voi hämmentyä ja hukkua
  • Jne.

Sinulla on epäilemättä houkutus katsoa tuota luetteloa inhimillisistä heikkouksista ja rajoituksista ja tehdä sitten juhlallinen johtopäätös, että on ilmeisen järkevää poistaa silmukassa oleva ihminen ja käyttää aina tekoälyä. Tämä voi joko sulkea pois ihmisen silmukassa tai ehkä tekoäly voi ohittaa juurtuneen ihmissilmukan suunnittelun. Katso analyysini siitä, kuinka tekoälyn ja ihmissilmukan väliset erimielisyydet voivat johtaa epävarmoihin tilanteisiin, käsitellään osoitteessa linkki tähän.

Usein vähättelevä luettelo tällaisista reaaliaikaisista ihmiskeskeisistä huonoista puolista jätetään omaan tahtiin ja jättää pysyvän vaikutelman, että tekoälyn täytyy jotenkin olla harppauksin paljon viisaampi valinta kuin ihmisen silmukassa. . Älä putoa tuohon petolliseen ansaan. Siihen liittyy raitistavia kompromisseja.

Harkitse näitä tekoälyn seurauksia:

  • AI saattaa kohdata virheen, joka saa sen menemään harhaan
  • Tekoäly saattaa olla ylikuormittunut ja lukkiutua reagoimatta
  • Tekoäly saattaa sisältää kehittäjävirheitä, jotka aiheuttavat virheellistä toimintaa
  • Tekoäly voi olla korruptoitunut implantoidulla pahantekijäviruksella
  • Kyberhakkerit voivat ottaa tekoälyn haltuunsa reaaliajassa
  • Tekoälyä saatetaan pitää arvaamattomana monimutkaisuuden vuoksi
  • Tekoäly saattaa laskennallisesti tehdä "väärän" päätöksen (suhteellisesti)
  • Jne.

Luotan siihen, että voit nähdä, että ihmisen silmukassa käyttämisen ja yksinomaan tekoälyyn riippuvuuden välillä on kompromisseja. Jos sinulla on houkutus ehdottaa, että valmis ratkaisu on käyttää molempia, haluan vain korostaa, että voit saada molempien maailmojen parhaat puolet, mutta voit myös saada molemmista maailmoista pahimman. Älä oleta, että se on aina ja varmasti molempien maailmojen paras.

Olet ehkä yllättynyt yhdestä yllä luetelluista tekoälyn huonoista puolista, erityisesti siitä, että tekoäly saattaa olla ennalta arvaamaton. Olemme tottuneet uskomaan, että tekoälyn oletetaan olevan ehdottoman loogista ja matemaattisesti tarkkaa. Sellaisenaan voit myös odottaa, että tekoäly on täysin ennustettavissa. Meidän pitäisi tietää tarkalleen, mitä tekoäly tekee. Aikakausi, tarinan loppu.

Anteeksi, että ilmapallo räjähtää, mutta tämä myytti ennustettavuudesta on harhaanjohtava nimitys. Nykyajan tekoälyn koko ja monimutkaisuus on usein sota, joka uhmaa olevansa täysin ennustettavissa. Tämä näkyy eettisen tekoälyn kohuissa, jotka koskevat joitain tämän päivän koneoppimisen (ML) ja Deep Learningin (DL) käyttötapoja. Selitän vähän tarkemmin.

Haluat myös katsoa viimeisimmän analyysini tulevista trendeistä pyrkiessäsi varmistamaan todennettavat ja matemaattisesti todistettavasti oikeat tekoälyjärjestelmät uusimman tekoälyturvallisuuden avulla osoitteessa linkki tähän.

Tien säännöissä märehtiminen

Olin maininnut tavoitteiden ja kohdistuksen käsitteen, joka on melko raskaasti kuormitettu terminologia, joka ansaitsee erityistä huomiota.

Voimme pohtia tätä:

  • Kohteet ovat ihmisiä
  • Kohteet, jotka eivät ole ihmisiä vaan eläviä olentoja
  • Kohteet, jotka katsotaan omaisuudeksi

Oletetaan, että meillä on autonominen järjestelmä, joka on aseistettu. Tekoälyä käytetään autonomisen järjestelmän ohjaamiseen ja aseisiin. Tekoäly tekee kaiken A:sta Z:hen. Ihmistä silmukassa ei ole. Kohdistamisen osalta tekoäly valitsee kohteet. Ei ole olemassa ihmisten määrittämää esikohdistusta. Sen sijaan tekoäly on ohjelmoitu yleisesti varmistamaan, onko olemassa ihmisiä, joita kohdennetaan (ehkä etsii vihamielisiä toimia, tietynlaisia ​​univormuja ja niin edelleen).

kanssani tähän toistaiseksi?

Tämä skenaario on melkein se, joka aiheuttaa eniten kohua aseistetuista autonomisista järjestelmistä.

Ilmoitettu huolenaihe on, että tekoäly tekee (ainakin) kolmea asiaa, joita sen ei pitäisi sallia:

  • Kohdistamalla ihmiset kohteiksi
  • Kohdistus ilman ihmissilmukan käyttöä
  • Mahdollisesti ennalta arvaamatonly

Huomaa, että AI:n arvaamattomuudesta huolestuttamisesta mainitaan terävästi. Voi olla, että vaikka tekoäly oli ohjelmoitu kohdistamaan tietyntyyppisiin ihmisiin, tekoälyohjelmointi ei ole sitä, mitä luulimme sen olevan, ja tekoäly päätyy kohdistamaan "ystäviä" niiden lisäksi, jotka tekoälyn oli tarkoitus pitää "vihomielisinä". ” (tai kenties sen sijaan). Tämän lisäksi, vaikka päätämme sisällyttää ihmissilmukan säännöksen, tekoälyn arvaamattomuus voi tarkoittaa sitä, että kun tekoälyn oletetaan neuvottelevan ihmisen silmukan kanssa, se ei onnistu. niin ja toimii ilman ihmisen väliintuloa.

Saatat kiinnostaa, että Punaisen Ristin kansainvälinen komitea (ICRC) on tarjonnut autonomisiin asejärjestelmiin kattavan kolmen kohdan kattavan kannan, joka käsittelee tämäntyyppisiä huolenaiheita (ICRC:n verkkosivuston mukaan):

1. "Ennustamattomat autonomiset asejärjestelmät pitäisi nimenomaisesti määrätä uloserityisesti niiden mielivaltaisten vaikutusten vuoksi. Tämä saavutettaisiin parhaiten kieltämällä autonomiset asejärjestelmät, jotka on suunniteltu tai käytetty siten, että niiden vaikutuksia ei voida tarpeeksi ymmärtää, ennustaa ja selittää."

2. "Eettisten näkökohtien valossa suojella ihmisyyttä ja noudattaa kansainvälisen humanitaarisen oikeuden sääntöjä siviilien ja hors de combat -taistelijoiden suojelemiseksi, autonomisten asejärjestelmien käyttö ihmisiin olisi suljettava pois. Tämä saavutettaisiin parhaiten kieltämällä autonomiset asejärjestelmät, jotka on suunniteltu tai joita käytetään voimankäyttöön henkilöitä vastaan."

3. Siviilien ja siviiliobjektien suojelemiseksi, kansainvälisen humanitaarisen oikeuden sääntöjen noudattamiseksi ja ihmiskunnan turvaamiseksi sellaisten autonomisten asejärjestelmien suunnittelua ja käyttöä, joita ei kiellettäisi, olisi säänneltävä muun muassa seuraavien yhdistelmän avulla: rajoituksia kohdetyypeille, kuten niiden rajoittaminen esineisiin, jotka ovat luonteeltaan sotilaallisia tavoitteita; kestoa, maantieteellistä laajuutta ja käytön laajuutta koskevia rajoituksia, mukaan lukien mahdollistamaan ihmisten harkinta ja valvonta tietyn hyökkäyksen suhteen; käyttötilanteiden rajoituksia, kuten niiden rajoittaminen tilanteisiin, joissa siviilejä tai siviiliobjekteja ei ole paikalla; rihmisen ja koneen vuorovaikutuksen vaatimuksetvarsinkin tehokkaan ihmisen valvonnan ja oikea-aikaisen puuttumisen ja deaktivoinnin varmistamiseksi."

Tähän liittyen Yhdistyneet Kansakunnat (YK) Genevessä tehdyn tiettyjä tavanomaisia ​​aseita koskevan yleissopimuksen (CCW) kautta oli vahvistanut yksitoista ei-sitovaa johtavaa periaatetta tappaville autonomisille aseille verkossa julkaistun virallisen raportin mukaan (sisältäen viittaukset asiaankuuluviin kansainvälisiin humanitaarisiin aseisiin). Laki tai IHL:n määräykset):

a) Kansainvälistä humanitaarista oikeutta sovelletaan edelleen täysimääräisesti kaikkiin asejärjestelmiin, mukaan lukien mahdollinen tappavien autonomisten asejärjestelmien kehittäminen ja käyttö;

b) Ihmisten vastuu asejärjestelmien käyttöä koskevista päätöksistä on säilytettävä, koska vastuuta ei voida siirtää koneille. Tämä olisi otettava huomioon asejärjestelmän koko elinkaaren ajan;

c) Ihmisen ja koneen välisen vuorovaikutuksen, joka voi olla eri muotoinen ja joka voidaan toteuttaa aseen elinkaaren eri vaiheissa, pitäisi varmistaa, että nouseviin teknologioihin perustuvien asejärjestelmien mahdollinen käyttö tappavien autonomisten asejärjestelmien alalla sovellettavan kansainvälisen oikeuden, erityisesti kansainvälisen humanitaarisen oikeuden, noudattaminen. Ihmisen ja koneen välisen vuorovaikutuksen laatua ja laajuutta määritettäessä on otettava huomioon useita tekijöitä, mukaan lukien toimintaympäristö sekä asejärjestelmän ominaisuudet ja ominaisuudet kokonaisuudessaan.

d) Vastuu kaikkien uusien asejärjestelmien kehittämisestä, käyttöönotosta ja käytöstä CCW:n puitteissa on varmistettava sovellettavan kansainvälisen oikeuden mukaisesti, mukaan lukien tällaisten järjestelmien käyttö vastuullisessa ihmisen komento- ja valvontaketjussa;

e) Valtioiden kansainvälisen oikeuden mukaisten velvoitteiden mukaisesti uuden aseen, sotakeinon tai sodankäyntimenetelmän tutkimisessa, kehittämisessä, hankinnassa tai käyttöönotossa on päätettävä, olisiko sen käyttö joissakin tai kaikissa olosuhteissa kansainvälisen oikeuden kieltää;

f) Kun kehitetään tai hankitaan uusia asejärjestelmiä, jotka perustuvat nouseviin teknologioihin tappavien autonomisten asejärjestelmien, fyysisen turvallisuuden, asianmukaisten ei-fyysisten suojatoimien (mukaan lukien kyberturvallisuus hakkerointia tai tietojen huijausta vastaan) alalla, terroristiryhmien hankinnan riski. ja leviämisen riski olisi otettava huomioon;

g) Riskinarviointien ja lieventämistoimenpiteiden olisi oltava osa uusien teknologioiden suunnittelu-, kehitys-, testaus- ja käyttöönottosykliä kaikissa asejärjestelmissä.

h) Olisi harkittava nousevan teknologian käyttöä tappavien autonomisten asejärjestelmien alalla kansainvälisen humanitaarisen oikeuden ja muiden sovellettavien kansainvälisten oikeudellisten velvoitteiden noudattamisen varmistamiseksi.

(i) Mahdollisia poliittisia toimenpiteitä suunniteltaessa ei tulisi antropomorfisoida uusia teknologioita tappavien autonomisten asejärjestelmien alalla;

j) Keskustelut ja mahdolliset CCW:n puitteissa toteutettavat poliittiset toimenpiteet eivät saisi haitata älykkäiden autonomisten teknologioiden rauhanomaisen käytön edistymistä tai pääsyä niihin.

k) CCW tarjoaa sopivan kehyksen tappavien autonomisten asejärjestelmien alalla nousevan teknologian kysymyksen käsittelemiselle yleissopimuksen tavoitteiden ja tarkoitusten puitteissa. Sopimuksen tavoitteena on löytää tasapaino sotilaallisen välttämättömyyden ja humanitaaristen näkökohtien välillä.

Ahdistus, jossa olemme

Nämä erilaiset sodan lait, aseellisten konfliktien lait tai kansainväliset humanitaariset lait (International Humanitarian Laws) toimivat tärkeänä ja aina lupaavana oppaana pohtiessamme, mitä voisimme yrittää tehdä autonomisten järjestelmien syntymiselle, jotka on aseistettu, joko Keystone-suunnittelulla tai jälkikäteen menetelmillä.

Voimme vilpittömästi toivoa, että tappavien aseistettujen autonomisten järjestelmien kieltoa noudatettaisiin tiukasti ja kuuliaisesti. Ongelmana on, että paljon heiluttelutilaa löytyy varmasti ovelasti kaikista vilpittömimmistä kielloista. Kuten sanotaan, säännöt on tarkoitettu rikottavaksi. Voit lyödä vetoa, että missä asiat ovat löysästi-hanhia, riffraff löytää aukkoja ja yrittää silmää silmää kiertää sääntöjä.

Tässä on joitain mahdollisia porsaanreikiä, jotka kannattaa harkita:

  • Väitteet ei-tappavia. Tehdä ei-tappava autonomiset asejärjestelmät (näyttävät olevan kunnossa, koska ne ovat kiellon rajan ulkopuolella), jotka voit sitten muuttaa pienellä rahalla tappaviksi (olet kiellon ulkopuolella vasta viime hetkellä).
  • Vain autonomisen järjestelmän vaatimukset. Noudata kieltoa olemalla tekemättä tappaviin autonomisiin järjestelmiin keskittyviä autonomisia järjestelmiä. Sillä välin edisty mahdollisimman paljon sellaisten jokapäiväisten autonomisten järjestelmien suunnittelussa, joita ei (vielä) ole aseistettu, mutta joita voit jälkiasennuksilla aseena.
  • Vaatimukset, joita ei ole integroitu yhdeksi. Luo autonomisia järjestelmiä, joita ei ole lainkaan aseistettu, ja kun aika koittaa, tee aseistus niin, että voit yrittää kiivaasti väittää, että ne ovat kaksi erillistä elementtiä ja siksi väittää, etteivät ne kuulu all-in-one-rubriikin alle. autonominen asejärjestelmä tai sen serkku.
  • Väittää, ettei se ole itsenäinen. Tee asejärjestelmä, joka ei näytä olevan itsenäistä. Jätä tilaa tähän oletettavasti ei-autonomiseen järjestelmään tekoälypohjaisen autonomian luopumiselle. Liitä tarvittaessa autonomia ja olet valmis rullaamaan (siihen asti et ilmeisesti rikkonut kieltoa).
  • Muut

Tappavien autonomisten asejärjestelmien suorassa kieltämisessä on monia muita ilmaistuja vaikeuksia. Kerron niistä muutaman lisää.

Jotkut asiantuntijat väittävät, että kielto ei ole erityisen hyödyllinen, ja sen sijaan pitäisi olla säännöksiä. Ajatuksena on, että nämä välineet ovat sallittuja, mutta niitä valvotaan tiukasti. Siinä on esitetty joukko laillisia käyttötarkoituksia, laillisia kohdentamistapoja, laillisia kykytyyppejä, laillista suhteellisuutta ja vastaavia.

Heidän mielestään suora kielto on kuin laittaisi päänsä hiekkaan ja teeskentelee, että huoneessa olevaa norsua ei ole olemassa. Tämä kiista saa kuitenkin veren kiehumaan niille, jotka vastustavat väitettä, että asettamalla kiellon pystyt vähentämään dramaattisesti muuten kiusausta harjoittaa tällaisia ​​järjestelmiä. Toki jotkut kehuvat kieltoa, mutta ainakin toivottavasti suurin osa ei. Voit sitten keskittää huomiosi keijuihin, etkä joudu sirpaloimaan huomiotasi kaikille.

Nämä keskustelut pyörivät ympäri ja ympäri.

Toinen usein todettu huolenaihe on, että vaikka hyvä noudattaisi kieltoa, huono ei. Tämä asettaa hyvän surkeaan asentoon. Huonoilla on tällaisia ​​aseistautuneita autonomisia järjestelmiä, mutta hyvillä ei. Kun asiat paljastuvat, että huonoilla on niitä, on liian myöhäistä, että hyvät saavat kiinni. Lyhyesti sanottuna, ainoa viisas teko on valmistautua taistelemaan tulella tulella.

On myös klassinen pelotuskiista. Jos hyvä valinta tehdä aseistautuneita autonomisia järjestelmiä, sitä voidaan käyttää estämään huonoja yrittämästä joutua tappeluun. Joko hyvät ovat paremmin aseistettuja ja siten luopuvat pahoista, tai hyvät ovat valmiita, kun pahat kenties paljastavat, että he ovat salaa kehittäneet noita järjestelmiä koko ajan.

Näiden laskurien vastakohta on se, että tekemällä aseistettuja autonomisia järjestelmiä kilpailet asevarustelukilpailussa. Toinen osapuoli pyrkii samaan. Vaikka he eivät teknisesti pystyisikään luomaan tällaisia ​​järjestelmiä uudelleen, he voivat nyt varastaa "hyvien" suunnitelmat, kääntää korkean teknologian sisut tai matkia mitä tahansa, mitä he näyttävät näkevän koeteltuna. tapa saada työ tehtyä.

Ahaa, jotkut vastalauseet, kaikki tämä saattaa johtaa konfliktien vähenemiseen näennäisesti molemminpuolisesti. Jos puoli A tietää, että puolella B on nuo tappavat autonomisten järjestelmien aseet, ja puoli B tietää, että puolella A on ne, he saattavat istua tiukasti eivätkä tule iskemään. Tässä on selkeä molemminpuolisesti varman tuhon (MAD) tunnelma.

Ja niin edelleen.

Tekoäly autonomiassa

Varmistetaan, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluamme villisti spekuloida tunteva AI, tämä keskustelu voisi mennä radikaalisti eri suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (superälykkään tekoälyn mahdollisuudesta tutkimisestani, katso ks. kattavuus täällä).

Pidetään asiat maanläheisemmin ja harkitaan nykypäivän laskennallista tuntematonta tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

Ole erittäin varovainen tämän päivän tekoälyn antropomorfoinnissa.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Tämän lisätyn perustaustan myötä siirrymme jälleen autonomisten järjestelmien ja aseistuksen aiheeseen. Näimme aiemmin, että tekoäly liittyy autonomiseen järjestelmäkomponenttiin ja voi myös liittyä asekomponenttiin. Tämän päivän tekoäly ei ole tunteva. Tämä on toistamisen arvoinen, ja korostan tätä lisänäkemyksen vuoksi näihin asioihin.

Tutkitaanpa joitain skenaarioita nähdäksesi, kuinka tämä on ratkaiseva näkökohta. Siirryn hetkeksi pois sota-ajan suuntautumisesta tähän aiheeseen ja esittelen kuinka se läpäisee monia muita sosiaalisia miljoonia. Vakaa itsesi sen mukaisesti.

Tekoälyyn perustuva autonominen järjestelmä, kuten autonominen ajoneuvo, jolla ei ole mitään tekemistä aseiden kanssa, on tulossa kaikkialle normaaliin paikkaan. Ihminen tulee mukaan käyttämään autonomista ajoneuvoa. Henkilö on aseistettu ennakoivalla aseella. Oletetaan keskustelun vuoksi tässä skenaariossa, että henkilöllä on jotain epämiellyttävää mielessään. Henkilö astuu autonomiseen ajoneuvoon (kantaen asetta, piilotettuna tai piilottamatta, kummallakin tavalla).

Autonominen ajoneuvo etenee ajajan pyytämään määränpäähän. Tässä tapauksessa tekoäly yksinkertaisesti kuljettaa tämän matkustajan ohjelmallisesti yhdestä noutopaikasta määrättyyn kohteeseen, aivan kuten se on tehnyt mahdollisesti kymmeniä tai satoja matkoja joka päivä.

Jos tämä olisi ollut ihmiskuljettaja ja ihmisen ohjaama ajoneuvo, oletettavasti on olemassa mahdollisuus, että ihmiskuljettaja ymmärtäisi, että matkustaja on aseistettu ja hänellä näyttää olevan pahoja aikeita. Ihmiskuljettaja saattaa kieltäytyä ajamasta ajoneuvoa. Tai ihmiskuljettaja saattaa ajaa poliisiasemalle. Tai ehkä ihmiskuljettaja saattaa yrittää alistaa aseistetun matkustajan (raportoituja tapauksia on olemassa) tai saada matkustajan luopumaan aseensa käytöstä. Se on melko monimutkainen, ja siitä voi olla useita muunnelmia. Sinun olisi vaikea väittää, että tällaisen ahdinkotilanteen ratkaisemiseen on vain yksi oikea vastaus. Valitettavasti tilanne on kiusallinen ja ilmeisen vaarallinen.

Tekoälyä ei tässä tapauksessa todennäköisesti ohjelmoida mihinkään sellaisiin mahdollisuuksiin. Lyhyesti sanottuna aseistettu matkustaja saattaa kyetä käyttämään asettaan itsenäisen ajoneuvon sisällä ajomatkan aikana. Tekoälyjärjestelmä jatkaa matkaa ja autonominen ajoneuvo jatkaa matkaansa matkustajan ilmoitettuun nimeämiseen (olettaen, että määränpäätä ei muuten pidetty rajojen ulkopuolella).

Useimmat nykyaikaiset AI-ajojärjestelmät keskittyisivät vain laskennallisesti tiehen, eivät ajajan ponnisteluihin.

Asiat voivat mennä tätä pahemmaksi.

Oletetaan, että joku haluaa saada joukon päivittäistavaroita kuljetettavaksi paikkaan, joka vie ylimääräistä ruokaa tarvitseville. Henkilö pyytää autonomista ajoneuvoa ja asettaa ruokakassit auton takapenkille. He eivät aio lähteä matkaan ja käyttävät vain autonomista ajoneuvoa toimittaakseen ruokapussit heille.

Näyttää täydellisen hyvältä.

Kuvittele, että röyhkeä ihminen valitsee sen sijaan jonkinlaisen aseistamisen autonomiseen ajoneuvoon mieluummin kuin rauhanomaisemman käsityksen päivittäistavarakasseista. Luulen, että voit arvata mitä voi tapahtua. Tämä on huolenaihe, jota olen kehottanut toistuvasti kolumneissani ja varoittanut, että meidän on selviydyttävä ennemmin tai myöhemmin.

Yksi tarjottu vastaus tämän tyyppisiin skenaarioihin on, että kaikki autonomiset ajoneuvot voitaisiin ehkä ohjelmoida käyttämään kameroitaan ja muita antureita yrittääkseen havaita, onko mahdollinen matkustaja aseistettu ja onko hänellä pahat aikeet. Ehkä tekoäly olisi ohjelmoitu tähän. Tai tekoäly hälyttää sähköisesti ja äänettömästi kauko-ihmisoperaattoria, joka sitten tutkisi kameroiden kautta visuaalisesti ja muutenkin matkustajan ja mahdollisesti olisi vuorovaikutuksessa hänen kanssaan. Se kaikki on osa monimutkaista ja mahdollisesti vaikeaselkoista matopurkkia, joten se herättää vakavia yksityisyysongelmia ja monia muita mahdollisia eettisiä tekoälyä koskevia huolenaiheita. Katso kattaukseni osoitteessa linkki tähän.

Toinen hieman samankaltainen vaihtoehto on, että tekoäly sisältää jonkinlaisen sulautetun eettisen ohjelmoinnin, joka yrittää antaa tekoälylle mahdollisuuden tehdä eettisiä tai moraalisia arvioita, jotka tavallisesti on varattu ihmisten päättäjille. Olen tutkinut tällaisia ​​tekoälyyn upotettuja laskennallisen etiikan ennustajia, ks. linkki tähän ja linkki tähän.

Palatakseni taistelukentän skenaarioon, kuvittele, että tappava autonominen asejärjestelmä risteilee taistelualueen yläpuolella. Tekoäly käyttää autonomista järjestelmää. Tekoäly käyttää aseita aluksella. Olimme aiemmin miettineet mahdollisuutta, että tekoäly voitaisiin ohjelmoida etsimään näennäisesti vihamielisiä liikkeitä tai muita osoittimia ihmiskohteista, joita pidetään kelvollisina taistelijana.

Pitäisikö tässä samassa tekoälyssä olla jonkinlainen eettisesti suuntautunut komponentti, joka pyrkii laskennallisesti pohtimaan, mitä silmukassa oleva ihminen voisi tehdä, toimien tavallaan ihmisen silmukassa olevan ihmisen sijasta?

Jotkut sanovat kyllä, jatketaan tätä. Jotkut perääntyvät kauhuissaan ja sanovat, että se on joko mahdotonta tai muuten loukkaa ihmisyyden pyhyyttä.

Vielä yksi purkki matoja.

Yhteenveto

Niille teistä, jotka ovat kiinnostuneita tästä aiheesta, on paljon muutakin keskusteltavaa.

Annan sinulle nopean esimakua yhdestä kiusaavasta ongelmasta.

Odotamme yleensä, että ihminen on viime kädessä vastuussa kaikesta, mitä sodan aikana tapahtuu. Jos tekoäly ohjaa autonomista asejärjestelmää tai autonomista järjestelmää, joka on mahdollisesti aseistettu, ja tämä järjestelmä tekee taistelukentällä jotain, jonka uskotaan olevan kohtuutonta, ketä tai mitä siitä voidaan syyttää?

Saatat väittää, että tekoäly pitäisi saattaa vastuuseen. Mutta jos on, mitä se tarkalleen tarkoittaa? Emme vielä pidä tämän päivän tekoälyä oikeushenkilöyden ruumiillistumana, katso selitykseni osoitteessa linkki tähän. Tekoälyn tapauksessa ei aasin hännän kiinnittämistä. Ehkä jos tekoäly tulee joskus tuntevaksi, voit yrittää tehdä niin. Siihen asti tämä on hieman tavoitettavissa (plus, millaisia ​​rangaistuksia tai seurauksia tekoälylle kohdistuisi, katso analyysini osoitteessa linkki tähän ja linkki tähän, esimerkiksi).

Jos tekoäly ei ole vastuussa epäilty, voisimme luonnollisesti sanoa, että mikä tahansa ihminen tai ihmiset teki tekoälyn, pitäisi olla vastuussa. Voitko tehdä tämän, jos tekoäly pyöritti vain autonomista järjestelmää ja mukana tulee ihmisiä, jotka yhdistävät sen aseisiin? Seuraatko tekoälykehittäjiä? Tai ne, jotka ottivat käyttöön tekoälyn? Vai vain aseistava näyttelijä?

Luotan, että ymmärrät, että olen koskettanut vain jäävuoren huippua vilkkaassa keskustelussani.

Toistaiseksi mennään ja päätetään tämä keskustelu. Saatat muistaa, että John Lyly sisälsi Euphues: Nokkeluuden anatomia vuonna 1578 totesi ikimuistoisesti, että rakkaudessa ja sodassa kaikki on reilua.

Olisiko hänellä ollut mielessä autonomisten asejärjestelmien syntyminen ja samoin aseistettujen autonomisten järjestelmien tulo?

Meidän on ehdottomasti otettava tämä mieleemme heti.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- asejärjestelmät-ja-ai-ohjattujen-autonomisten-järjestelmien-jotka-ovat pirullisesti-asetettu/