Mikä on Pentagonin päivitetty tappajarobotteja koskeva politiikka?

Pentagon on julkaissut päivitys direktiiviin 3000.09, joka kattaa heidän terminsä Autonomia asejärjestelmissä ja muut soittavattappajarobotit.' Nykyiset droonit, kuten ilmavoimat ja CIA MQ-9 leikkuukoneet ohjataan kaukosäätimellä: ihminen istuu videoruudun edessä tunnistaa kohteet maassa tuhansien kilometrien päässä, asettaa ne hiusristikkoihin ja vapauttaa Hellfire-ohjus tai muu ase. Autonomiset aseet ovat erilaisia: ne valitsevat omat kohteensa ilman ihmisen väliintuloa. Tarvitaan selkeät säännöt siitä, milloin ja miten niitä voidaan käyttää, ja uusi direktiivi tuo ne askeleen lähemmäksi.

Kymmenen vuotta sitten, kun 3000.09:n ensimmäinen versio julkaistiin, autonomiset aseet näyttivät tieteiskirjallisuudesta. Nyt ne ovat hyvin todellisia. YK väitti näin Turkin toimittamat droonit hyökkäsivät kohteisiin itsenäisesti Libyassa vuonna 2020, ja Venäjä käyttää nyt vaeltavia sotatarvikkeita Ukrainassa autonominen kyky.

Monet aktivistit, kuten Kampanja tappaja robottien pysäyttämiseksi, haluavat itsenäisten aseiden suoran kiellon ja vaativat, että kaikki etäaseet pysyvät alaisena mielekästä ihmisen hallintaa aina. YK on keskustellut siitä, miten hallita tällaisia ​​aseita monta vuotta.

Kuten uusi direktiivi kuitenkin osoittaa, Pentagon pitää kiinni toisesta linjasta.

"DoD on johdonmukaisesti vastustanut "merkittävän ihmisen hallinnan" politiikkaa, kun on kyse sekä autonomisista järjestelmistä että tekoälyjärjestelmistä." Gregory Allen, tekoälyn hallintoprojektin johtaja Strategisen ja kansainvälisen tutkimuksen keskus, kertoi minulle. "Suositeltu DoD-termi on "ihmisen harkintakyvyn sopiva taso", mikä kuvastaa sitä tosiasiaa, että joissakin tapauksissa – esimerkiksi autonomisissa valvontalentokoneissa ja tietyissä autonomisissa kyberaseissa – ihmisen hallinnan asianmukainen taso voi olla vähän tai ei ollenkaan. .”

Mitkä itsenäiset aseet olisivat sallittuja missä olosuhteissa? Allen uskoo, että direktiivin edellinen versio oli niin epäselvä, että se esti kehitystä tällä alalla.

"Sekaannus oli niin laajalle levinnyt - myös joidenkin DoD:n johtajien keskuudessa - että virkamiehet pidättyivät kehittämästä joitain järjestelmiä, jotka eivät vain olleet politiikan sallittuja, vaan myös nimenomaisesti vapautettuja ylimmän tarkastuksen vaatimuksesta", Allen sanoo.

Yhtään asetta ei ole jätetty alkuperäisen 3000.09:n autonomisten aseiden tarkistusprosessiin kymmenen vuoden aikana sen julkaisusta.

Allen kirjoitti essee tästä CSIS:lle viime vuonna kuvattiin neljä työtä, jotka vaativat työtä – autonomisten asejärjestelmien muodollinen määrittely, mitä "AI-pohjainen" tarkoittaa politiikalle, kuinka tarkistusprosessi käsittelee koneoppimismallien uudelleenkoulutusta ja selvennettiin, minkä tyyppiset aseet vaativat käydä läpi vaivalloinen tarkistusprosessi.

"DoD on toteuttanut ne kaikki", Allen sanoo.

Periaatteessa tämän pitäisi varmistaa DoD:n nimitys "vahva ja jatkuva sitoutuminen olemaan läpinäkyvä globaali johtaja vastuullisten politiikkojen luomisessa autonomisten järjestelmien sotilaallisen käytön osalta".

On kuitenkin joitain lisäyksiä, joita voidaan pitää porsaanreikinä, kuten vapautus korkean tason arvioinnista sellaisille itseohjautuville aseille, jotka puolustavat droneja, jotka eivät kohdistu ihmisiin ("aineelliset aseet") ja jotka kuitenkin sallittaisiin ohjuksiin ja muihin drooniin. ja mahdollisesti muita järjestelmiä.

"Sana "puolustaminen" tekee paljon työtä, Zak Kallenborn, kertoi minulle George Masonin yliopiston Schar School of Policy and Governmentin stipendiaatti. "Jos drone toimii vihollisen alueella, melkein mikä tahansa ase voidaan tulkita alustan "puolustavaksi".

Kallenborn huomauttaa myös, että vaikka tehokkaasti itsenäisiä aseita, kuten maamiinoja, on käytetty yli vuosisadan, maisema muuttuu nopeasti tekoälyn ja erityisesti koneoppimisen edistymisen vuoksi. Nämä ovat synnyttäneet järjestelmiä, jotka ovat erittäin kykeneviä, mutta teknisesti hauras – epäonnistuessaan ne epäonnistuvat näyttävästi tavalla, jollaista ei esimerkiksi kukaan ihminen tekisi sekoittaa kilpikonnan kivääriin.

"Tekoälyn kautta tapahtuva autonomia ansaitsee ehdottomasti enemmän huolta, kun otetaan huomioon tällä hetkellä hallitsevien lähestymistapojen hauraus ja selitettävyys", Kallenborn sanoo.

Päivitys ei ole iso. Mutta se osoittaa Pentagonin jatkuvan sitoutumisen tehokkaiden autonomisten aseiden kehittämiseen ja uskon, että ne voivat noudattaa kansainvälisen humanitaarisen oikeuden — Siviilien erottaminen sotilashenkilöstöstä, siviilien vahingoittamisen välttäminen ja vain oikeasuhteisen ja tarpeellisen voiman käyttö.

Kampanjat uskovat, että tekoälyllä ei ole tarvittavaa ymmärrystä moraalisten tuomioiden tekemiseen sodan aikana ja vaarana on luoda maailma, jossa sota on automatisoitu ja ihmiset eivät enää hallitse. Toiset uskovat, että Yhdysvaltain armeija tulee olemaan päihittää vastustajat autonomisilla aseilla ellei tekoälyä ole sisällytetty taktisella tasolla, ja että liian paljon ihmisen osallistumista hidastaa sotilaallisia robotteja.

Väite todennäköisesti jatkuu, vaikka autonomisia aseita alkaa ilmaantua, ja tuloksia seurataan tiiviisti. Joka tapauksessa näyttää siltä, ​​että tappajarobotit ovat tulossa.

Lähde: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/