Tekoälyn etiikka suhtautuu myönteisesti standardoidun tekoälyn riskinhallintakehyksen näkymiin, mikä voisi myös edistää autonomista itseajavaa autoa

Meille näyttää kerrottavan toistuvasti, että riskin ottaminen on tärkeää elämässä.

Jos katsot mitä tahansa jokapäiväistä listausta lainaavista lainauksista, siellä on valtaosa elämän hakkereista, jotka kehottavat sinua ottamaan riskin. Tartu tilaisuuteen ja kiipeä raajaan. Laita syrjään rajoittavat huolesi ja lennä vapaana riskien ihmettelyssä. Riski on ystäväsi. Riski saa maailman pyörimään. Yksinkertaisesti sanottuna, ei riskiä, ​​ei voittoa.

Vaikka nämä hehkuvat rohkaisut riskinottajaksi vaikuttavatkin järkeviltä, ​​jotenkin tasapainottavat ja raikastavat ajatukset riskin huonoista puolista jäävät sanomatta. Riski voi asettaa sinut vaaraan. Vaarallisista toimista voi aiheutua vakavia haittoja. Yksinkertaisesti sanottuna riski ei ole riskitöntä.

Kenraali George Patton totesi tunnetusti, että meidän tulee aina olla riskialttiita ottamalla riittävästi laskettu riskejä, joita hän luonnehtii aivan erilaisiksi kuin ihottuma. Mieti siis etukäteen riskejä, jotka olet valmis ottamaan vastaan. Ole tietoinen tunnetuista riskeistä ja tuntemattomien riskien mahdollisuudesta. Ihminen on oppinut tuntemaan rajoituksensa riskin ja riskinoton suhteen.

Otan esiin "riskin" luonteen ja laajuuden eräänlaisena analyyttisesti kuvailtavana ilmiönä korostaakseni, että tekoälyn suhteen on kasvava tarve määrittää, kuinka riskialtista tekoälyn leviäminen on. AI ei ole riskitön. Päinvastoin, tekoäly sisältää monia suuria ja pelottavan valtavia riskejä, jotka vaativat meitä kaikkia hengittämään syvään ja alkamaan vakavasti laskea, mitä nämä riskit ovat. Meidän on oltava silmämme auki ja tiedettävä tekoälyn riskeistä, kun syöksymme päätä edellä kohti tekoälyn syleilyä.

Huomaa, että kaikki tämän päivän sidosryhmät kohtaavat tekoälyn riskejä.

Esimerkiksi tekoälyjärjestelmää suunnitteleva yritys ottaa riskin, että tekoäly voi lopulta aiheuttaa jonkinlaista olennaista haittaa tekoälyjärjestelmän käyttäjille. Vahinko voi olla taloudellista, psyykkistä tai mahdollisesti fyysistä vahinkoa, joka voi vahingoittaa tai tappaa jotakuta. Yrityksen johtajat joutuvat todennäköisesti laillisesti vastuuseen tekoälyn suunnittelusta ja julkaisemisesta. Tekoälykehittäjät, jotka rakensivat tekoälyn, joutuvat vastuuseen. Tekoälyn tekemiseen ja levittämiseen menee monia käsiä, ja niitä kaikkia voidaan pitää yhteisvastuullisina ja syyllisinä siitä, mitä he antoivat haitallisesti tapahtua.

Ajattele tekoälyriskiä jotain, joka leijuu mukana ja kiinnittyy kaikkiin, joilla on tekoälyyn liittyvä kosketuspiste. Tekoälyjärjestelmän käyttäjät ottavat jonkin verran riskejä. Tekoäly saattaa vahingoittaa heitä. Tekoälyn kehittäjät ottavat jonkin verran riskejä, jotka liittyvät haitallisiin seurauksiin, joita heidän tekoälynsä voi tuottaa. Riski on levinnyt tekoälyn piiriin, ja silti se näyttää usein täysin huomiotta jätetyltä ja yleensä surkean aliarvioitulta.

Huono uutinen on sitten se, että tekoälyn riskeihin ei kiinnitetä tarpeeksi huomiota.

Hyvä uutinen on, että tekoälyriskin ymmärtämisen ja mittaamisen elinvoimaisuuden lisääntyvä arvostus kiihtyy. Terveenä merkkinä tästä tietoisuudesta voimme katsoa muotoiltavaa AI Risk Management Framework (RMF) että National Institute of Standards and Technology (NIST) on toteuttamassa. Lainaan tässä 17. maaliskuuta 2022 päivätystä asiakirjaluonnoksesta. Meneillään on useita kokouksia asiakirjan tarkentamiseksi ja laajentamiseksi. Puolivalmis versio, joka tunnetaan nimellä AI RMF 1.0, on tarkoitus julkaista tammikuussa 2023.

Ennen kuin hyppään olemassa olevaan tekoälyn RMF-luonnokseen, haluan korostaa, että jokaisen, joka on aidosti kiinnostunut tekoälyn etiikasta, tulisi erityisesti seurata, mistä AI RMF koostuu. Sen lisäksi, että pysyt luonnoksen kärjessä, voit myös harkita osallistumista suunnitteluun ja apua tekoälyn riskinhallintakehyksen muotoiluun (huomaa, että NIST järjestää julkisia työpajoja, jotka ovat tervetulleita tällaiseen panokseen). Voit todellakin auttaa tekemään historiaa.

Tutkitaanpa lyhyesti tärkeää sekoitusta tekoälyn etiikan ja tekoälyriskien välillä. Tekoälyriskit ovat olennainen osa eettisen tekoälyn hyödyllisyyttä. Jatkuva ja laaja kattavuus tekoälyn eettisyydestä ja eettisestä tekoälystä, katso linkki tähän ja linkki tähän, nimetäkseni muutamia. Voit helposti väittää, että tekoälyriski on upotettu kaikkiin tekoälyn eettisiin periaatteisiin tai ohjeisiin. Kätevä mentaalinen malli olisi kuvitella eräänlainen laskentataulukko, jossa tekoälyn eettiset periaatteet horisontaalisina elementteinä (sarakkeet) ja tekoälyriski on vertikaalinen komponentti (rivit), joka kutoutuu vaakasuuntaan ja sen läpi.

Tekoälyriskeistä puhuminen tuo esiin vaihtelevan vivahteen siitä, millaiseen tekoälyyn viitataan. Huolimatta niistä huutavista otsikoista, jotka kertovat julistetuista ihmismäisistä tekoälyn ihmeistä, nykyään ei ole yhtään älykäs tekoälyä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon tässä keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään.

Jos haluamme villisti spekuloida tunteva AI, tämä keskustelu voisi mennä radikaalisti eri suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (superälykkään tekoälyn mahdollisuudesta tutkimisestani, katso ks. kattavuus täällä).

Pidetään asiat maanläheisemmin ja harkitaan nykypäivän laskennallista tuntematonta tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Saatat olla tietoinen, että kun tekoälyn uusin aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Paitsi äänekäs juridinen väärinkäytösten hillitsemiseen tähtäävät pyrkimykset omaksua tekoälyn etiikka tekoälyn ilkeyden korjaamiseksi. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Tähän liittyvään ajatukseen, kannatan tekoälyn käyttämistä osana tekoälyongelmien ratkaisua ja tulen torjumista tulella tällä ajattelutavalla. Voisimme esimerkiksi upottaa eettisiä tekoälykomponentteja tekoälyjärjestelmään, joka valvoo, kuinka muu AI tekee asioita ja saa siten mahdollisesti kiinni reaaliajassa kaikki syrjivät toimet, katso keskusteluni osoitteessa linkki tähän. Meillä voisi olla myös erillinen tekoälyjärjestelmä, joka toimii eräänlaisena AI Ethics -monitorina. Tekoälyjärjestelmä toimii valvojana, joka seuraa ja havaitsee, kun toinen tekoäly on menossa epäeettiseen kuiluun (katso analyysini tällaisista ominaisuuksista linkki tähän).

Tarkastellaanpa lyhyesti joitain yleisiä eettisiä tekoälyohjeita, joista olen aiemmin keskustellut kolumneissani, jotta voidaan havainnollistaa, minkä pitäisi olla olennainen huomio jokaiselle tekoälyä luovalle, harjoittelevalle tai käyttävälle. Sitten sukeltamme tekoälyn riskeihin.

Kuten Vatikaani totesi Rooma kutsu tekoälyn etiikkaan ja kuten olen käsitellyt linkki tähän, nämä ovat heidän tunnistamansa kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä.
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi.
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa.
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti.
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Mainitsin aiemmin tässä, että tekoälyriski on asia, joka risteää kaikissa tekoälyn eettisissä ohjeissa. Auttaaksesi tuomaan tämän ilmeen täysin esille, harkitse tekoälyn eettisten periaatteiden uudelleenmuotoilua valaisemaan tekoälyriskiä:

  • Avoimuus ja siihen liittyvät tekoälyriskit
  • Oikeus ja oikeudenmukaisuus ja siihen liittyvät tekoälyriskit
  • Ei-ilkeäisyys ja siihen liittyvät tekoälyriskit
  • Vastuu ja siihen liittyvät tekoälyriskit
  • Yksityisyys ja siihen liittyvät tekoälyriskit
  • Hyöty ja siihen liittyvät tekoälyriskit
  • Vapaus ja autonomia ja niihin liittyvät tekoälyriskit
  • Luottamus ja siihen liittyvät tekoälyriskit
  • Kestävyys ja siihen liittyvät tekoälyriskit
  • Ihmisarvo ja siihen liittyvät tekoälyriskit
  • Solidaarisuus ja siihen liittyvät tekoälyriskit

Ennen kuin puramme tämän, pohditaan, mitä sana "riski" tarkoittaa.

Sanon tämän, koska riskillä tunnussanana on eri merkitys riippuen siitä, kenen kanssa puhut. Tätä näkökohtaa tutkiessani tuon esiin myös toisen NIST-asiakirjan, jonka tutkimista sinun tulee harkita, jos aiot päästä AI RMF:ään, nimittäin että on olemassa yleinen NIST-riskinhallintakehys (RMF), joka kattaa laajasti tietotekniikkajärjestelmät ja riskit. hallinta, joka on ollut paikallaan jo jonkin aikaa. AI RMF on pohjimmiltaan instantiaatio laajemmasta RMF:stä (voit röyhkeästi sanoa, että AI RMF on kaiken kerrotun RMF:n poika tai tytär).

Yleisen NIST RMF:n mukaan tässä on riskin määritelmä: "Riski on mitta siitä, missä määrin potentiaalinen olosuhde tai tapahtuma uhkaa kokonaisuutta. Riski on myös olosuhteiden tai tapahtuman sattuessa syntyvien haitallisten vaikutusten ja tapahtumisen todennäköisyyden funktio. Riskityyppejä ovat ohjelman riski; vaatimustenmukaisuus/sääntelyriski; taloudellinen riski; oikeudellinen riski; tehtävä/liiketoimintariski; poliittinen riski; turvallisuus- ja tietosuojariski (mukaan lukien toimitusketjuriski); projektin riski; maineriski; turvallisuusriski; strategisen suunnittelun riski."

NIST AI RMF -luonnos määrittelee riskin seuraavasti: "Riski on mitta siitä, missä määrin potentiaalinen olosuhde tai tapahtuma vaikuttaa negatiivisesti kokonaisuuteen. Tyypillisesti riski on funktio 1) haitallisista vaikutuksista, joita voi syntyä, jos seikka tai tapahtuma toteutuu; ja 2) tapahtuman todennäköisyys. Kokonaisuudet voivat olla yksilöitä, ryhmiä tai yhteisöjä sekä järjestelmiä, prosesseja tai organisaatioita."

Kaivamalla syvemmälle ja ehkä mutaamalla vesiä Stanfordin filosofian tietosanakirja huomauttaa kätevästi, että riski on usein muotoiltu viiteen eri konnotaatioon:

1) Riski on ei-toivottu tapahtuma, joka voi tapahtua tai ei

2) Riski on aiheuttaa ei-toivotusta tapahtumasta, joka voi tapahtua tai ei

3) Riski on todennäköisyys ei-toivotusta tapahtumasta, joka voi tapahtua tai ei

4) Riski on tilastollinen odotusarvo ei-toivotusta tapahtumasta, joka voi tapahtua tai ei

5) Riskillä tarkoitetaan sitä, että päätös tehdään tunnetuilla todennäköisyyksillä

Sovitaan nyt kollegiaalisesti siitä, että aiomme tässä keskustelussa käsitellä riskin käsitettä yleisellä tavalla edellä mainittujen NIST RMF- ja NIST AI RMF -määritelmien mukaisesti, emmekä jää jumiin kierteisiin muunnelmiin. Luotan siihen, että olet tyytyväinen yllä olevaan perustaani, jonka mukaan olen päättänyt toistaiseksi tekoälyn kontekstuaalisen merkityksen ja riskin merkityksen.

Tekoälyn riskinhallintakehys on keino keinoälyn riskien poistamiseen ja toivottavasti näiden riskien hallintaan.

AI RMF:n mukaan tässä on muotoiltavan tekoälyn riskinhallintakehyksen virallinen tarkoitus tai pyrkimys: "AI Risk Management Framework (AI RMF tai Framework) voi vastata tekoälyjärjestelmien ainutlaatuisiin haasteisiin. Tämä tekoälyn RMF on ensimmäinen yritys kuvata, kuinka tekoälypohjaisten järjestelmien riskit eroavat muista alueista, ja rohkaista ja varustaa monia erilaisia ​​tekoälyn sidosryhmiä käsittelemään näitä riskejä määrätietoisesti. Tämä vapaaehtoinen kehys tarjoaa joustavan, jäsennellyn ja mitattavissa olevan prosessin tekoälyriskien käsittelemiseksi koko tekoälyn elinkaaren ajan ja tarjoaa ohjeita luotettavan ja vastuullisen tekoälyn kehittämiseen ja käyttöön.

NIST ymmärtää myös, että AI RMF:n ehdotettuna standardina on oltava helposti käyttökelpoinen, sitä on päivitettävä tekniikan kehittyessä ja sen tulee sisältää muita keskeisiä kriteerejä: "Riskienhallintakehyksen tulisi tarjota jäsennelty mutta joustava lähestymistapa yritysten ja yhteiskunnallisten riskien hallintaan. jotka johtuvat tekoälyjärjestelmien yhdistämisestä tuotteisiin, prosesseihin, organisaatioihin, järjestelmiin ja yhteiskuntiin. Yrityksen tekoälyriskiä hallitsevien organisaatioiden tulee myös ottaa huomioon laajemmat yhteiskunnalliset tekoälynäkökohdat ja riskit. Jos riskinhallintakehys voi auttaa tehokkaasti käsittelemään ja hallitsemaan tekoälyn riskejä ja haitallisia vaikutuksia, se voi johtaa luotettavampiin tekoälyjärjestelmiin."

Jotkut teistä, jotka ovat hieman skeptisiä, saattavat kyseenalaistaa, miksi tarvitsemme tekoälyn RMF:ää verrattuna pelkkään yleistettyyn RMF:ään, joka on jo saatavilla. Emmekö vain keksi pyörää uudelleen? Vastaus on ei, emme keksi pyörää uudelleen. Pyörä on räätälöitävissä tietyn tarpeen mukaan. Järkevä ihminen todennäköisesti tunnustaa, että pyöriä on kaikenlaisia ​​eri muotoisia ja kokoisia. Lentokoneen pyörä on epäilemättä aivan erilainen kuin lasten kolmipyörän pyörä. Totta kai ne ovat molemmat pyöriä, mutta ne on suunniteltu eri tavalla, joten niillä on erilaiset ominaisuudet ja niitä voidaan perustellusti tarkastella myös selvästi.

Tekoälyn RMF-asiakirja ilmaisee samanlaisen mielipiteen: ”Tekoälyyn sovelletaan kaikkiin ohjelmistoihin tai tietoihin perustuviin järjestelmiin kohdistuvia riskejä; joka sisältää tärkeitä kyberturvallisuuteen, yksityisyyteen, turvallisuuteen ja infrastruktuuriin liittyviä huolenaiheita. Tämän kehyksen tarkoituksena on täyttää erityisesti tekoälyyn liittyvät aukot."

AI RMF -luonnoksen nykyisessä versiossa ne määrittelevät neljä sidosryhmää:

  • Tekoälyjärjestelmän sidosryhmät
  • Toimijat ja arvioijat
  • Ulkoiset sidosryhmät
  • Yleisö

Suurin osa tekoälyriskiin kohdistuvasta huomiosta kohdistuu yleensä tekoälyjärjestelmän sidosryhmiin. Tuossa on järkeä. Nämä ovat sidosryhmiä, jotka ovat mukana tekoälyn suunnittelussa, suunnittelussa, rakentamisessa ja käyttöönotossa. Lisäksi voimme sisällyttää ne, jotka hankkivat tai lisensoivat tekoälyä käytettäväksi. Meillä on tapana nähdä nämä sidosryhmät näkyvästi näkyvinä osapuolina, jotka tekivät raskaan työn tekoälyjärjestelmän luomiseksi ja edistivät sen käyttöönottoa.

Et ehkä ole yhtä ajatellut tekoälyoperaattoreita ja arvioijia tai pitänyt niitä hyödyllisinä. Kuten tekoälyn RMF:ssä todetaan, tekoälyoperaattorit ja arvioijat tekevät näin: "Operaattorit ja arvioijat tarjoavat seurantaa ja muodollisen/epävirallisen testauksen, arvioinnin, validoinnin ja todentamisen (TEVV) järjestelmän suorituskyvylle suhteessa sekä teknisiin että sosioteknisiin vaatimuksiin. ” Ne ovat keskeisiä tekoälylle ja myös tekoälyriskien alueella.

Ulkoiset sidosryhmät käsittäisivät laajan joukon yhteisöjä, mukaan lukien kaupparyhmät, edunvalvontaryhmät, kansalaisyhteiskunnan organisaatiot ja muut. Suuri yleisö koostuu kuluttajista ja muista, jotka kokevat epämiellyttävään tekoälyyn liittyvän riskin.

Saatat ihmetellä, kuinka suuri riski on siedettävä tekoälyn suhteen.

Ikävä kyllä ​​todeta, ettei meillä ole mitään erityistä numeroa tai annettua arvoa, jota voimme antaa siedettävälle tai hyväksyttävälle riskille, jonka saattaisimme pitää arvokkaana tai yhteiskunnallisesti sallittuna. Niille teistä, jotka haluavat standardoidun nimetyn numeerisen osoituksen, sinun on hillittävä sitä tällä merkittävällä AI RMF -luonnoksen kohdassa: "AI RMF ei määrää riskikynnyksiä tai -arvoja. Riskinsietokyky – organisaation tai yhteiskunnan hyväksymä riskin taso tai epävarmuusaste – on konteksti- ja käyttötapauskohtainen.”

AI RMF:n suosittelema menetelmä tekoälyriskin tutkimiseksi ja hallitsemiseksi on kuvattu koostuvan perusvaiheista, jotka on merkitty Kartta, Mittaa ja Hallitse. Karttatoiminto kehystää tekoälyjärjestelmän riskit. Measure-toiminto sisältää tekoälyriskin seurannan ja analysoinnin. Hallinta-toiminto käyttää kartta- ja mittaustoimintoja yrittääkseen minimoida haitalliset vaikutukset ja maksimoida tekoälyn hyödyt. AI RMF -luonnoksen mukaan standardin myöhemmät versiot sisältävät käytännön oppaan, joka esittelee esimerkkejä ja käytäntöjä AI RMF:n käytöstä.

Laajemmassa NIST RMF -standardissa on koristeltu seitsemän vaihetta, jotka sopivat yhteen kokonaisvaltaisen IT- ja järjestelmäriskien hallinnan kanssa. Nämä seitsemän vaihetta ovat mielestäni käteviä pitää mielessä, myös tekoälyjärjestelmiä rakennettaessa ja otettaessa käyttöön.

Seitsemän vaihetta ovat (lainaus NIST RMF -standardista):

1. Valmistaudu suorittamaan RMF:n organisaatio- ja järjestelmätason näkökulmasta määrittämällä konteksti ja prioriteetit turvallisuus- ja yksityisyysriskien hallintaan.

2. Luokittele järjestelmä ja järjestelmän käsittelemät, tallentamat ja välittämät tiedot menetysten vaikutusten analyysin perusteella.

3. Valitse järjestelmän alustava ohjausjärjestelmä ja räätälöi tarvittavat säädöt riskin pienentämiseksi hyväksyttävälle tasolle riskiarvioinnin perusteella.

4. Toteuta ohjaukset ja kuvaile, kuinka ohjaimia käytetään järjestelmässä ja sen toimintaympäristössä.

5. Arvioi ohjausobjektit määrittääksesi, ovatko säädöt toteutettu oikein, toimivatko ne tarkoitetulla tavalla ja tuottavatko haluttuja tuloksia turvallisuus- ja yksityisyysvaatimusten täyttämisen suhteen.

6. Valtuuta järjestelmä tai yhteiset kontrollit sen perusteella, että riski organisaation toiminnalle ja omaisuudelle, yksilöille, muille organisaatioille ja kansakunnalle on hyväksyttävä.

7. Seuraa järjestelmää ja siihen liittyviä valvontatoimia jatkuvasti sisältäen valvonnan tehokkuuden arvioinnin, järjestelmän ja toimintaympäristön muutosten dokumentoinnin sekä riskien arvioinnin.

Tämän painavan keskustelun tässä vaiheessa veikkaan, että kaipaat havainnollistavia esimerkkejä, jotka voisivat tuoda esille tekoälyriskien luonne. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo mitään tekoälyn riskeistä, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoälyriskit

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Luotan siihen, että se tarjoaa riittävän litanian varoituksia, jotka tukevat sitä, mitä aion kertoa.

Olemme nyt valmiita sukeltamaan syvälle itseohjautuviin autoihin ja tekoälyriskien luonteeseen liittyviin eettisiin tekoälymahdollisuuksiin.

Ihmiskuljettajana olet hienosäädetty riskilaskuri.

Aivan oikein, kun ajat autoa, olet reaaliajassa tehtävänä selvittää riskit siitä, että jalankulkija saattaa yhtäkkiä pomppia kadulle tai että edessäsi oleva auto painaa yllättäen jarrujaan. Edessämme olevissa ajotilanteissa on selvästi hämärää ja sumeutta.

Yrität tehdä parhaan mahdollisen arvion riskeistä jokaisella ajohetkellä ja joudut sitten kantamaan arvioiden seuraukset. Valitettavasti pelkästään Yhdysvalloissa kuolee noin 40,000 2.5 auto-onnettomuudessa vuosittain ja noin XNUMX miljoonaa loukkaantuu (katso kokoelmani tällaisista tilastoista osoitteessa linkki tähän). Joskus leikkaat asiat melko läheltä ja pakenet pahasta tilanteesta hampaiden iholla. Toisinaan arvioit väärin ja törmäät johonkin tai törmäät jonkun kanssa.

Päivität yleensä henkisesti riskinäkökohtia ajoponnistuksen aikana. Kuvittele yksinkertainen tapaus, jossa joukko lapsia pyrkii kävelemään. Aluksi saatat arvioida heidän jaywalking-riskinsä ja joutua iskuun melko suureksi. Mutta sitten huomaat, että lähellä oleva aikuinen käskee heitä olemaan kävelemättä, ja siten riski, että lapset tunkeutuvat kadulle ja joutuvat alas, vähenevät. Huomaa kuitenkin, että riski ei laskenut nollaan riskiin, koska he voivat silti halutessaan mennä tielle.

Autoalalla on hyvin tunnettu riskeihin liittyvä standardi, joka tunnetaan nimellä Automotive Safety Integrity Level (ASIL) riskiluokitusjärjestelmä, joka perustuu ISO 26262:ksi kutsuttuun viralliseen asiakirjaan. Olen käsitellyt erilaisia ​​tekoälyn itseohjautuvia autoja. -suuntautuneita riskeihin liittyviä näkökohtia linkki tähän ja myös linkki tähän.

Kun määrität riskiä ajon aikana, tässä on yhtälö, joka tarjoaa keinon saada kätesi riskinäkökohtiin:

  • Riski = vakavuus x (altistus x hallittavuus)

Tutkitaan kaavaa ja sen komponentteja.

Vakavuus on tärkeää ottaa huomioon, kun riskiä määritetään ajon aikana, koska saatat olla menossa kohti tiiliseinää, joka johtaa siihen, että sinä ja matkustajasi loukkaantuvat tai kuolette (erittäin vakava seuraus) ja törmäät joihinkin pois heitettyihin soodatölkkeihin moottoritiellä olla suhteellisen alhainen vakavuus. Muodollisesti ISO-standardin mukaan vakavuus on mahdollisen vahingon mitta, ja se luokitellaan (S0) Ei vammoja, (S1) Kevyet ja kohtalaiset vammat, (S2) Vakavat vammat, (S3) Hengenvaaralliset ja kuolemaan johtavat vammat. .

Altistuminen tarkoittaa, onko tapahtuman todennäköisyys huomattava verrattuna epätodennäköisyyteen, koska olet altistunut asialle (eli tila, jossa olet vaarallisessa toimintatilanteessa). ISO-standardin mukaan valotus voidaan jakaa (E0) merkityksettömään, (E1) erittäin matalaan, (E2) matalaan, (E3) keskitasoon ja (E4) korkeaan.

Hallittavuudella tarkoitetaan kykyä ohjata autoa odottavan onnettomuuden välttämiseksi. Tämä voi vaihdella tilanteen välttämisestä kokonaan tai pelkästä sen ohittamisesta tai siitä, että riippumatta siitä, mitä teet, ei ole riittävästi keinoja ohjata, jarruttaa tai kiihdyttää ja välttää hetkeä. ISO-standardin mukaan ohjattavuus voidaan jakaa (C0) yleisesti ohjattavaan, (C1) yksinkertaisesti ohjattavaan, (C2) normaalisti ohjattavaan ja (C3) vaikeaan tai hallitsemattomaan.

Yhdistämällä kolme tekijää, jotka ovat vakavuus, altistuminen ja hallittavuus, voit saada viitteen tietyn ajotilanteen riskinarvioinnista. Oletettavasti teemme tämän päässämme, kognitiivisesti, vaikka kuinka me todella teemme sen ja käytämmekö edes tällaista eksplisiittistä logiikkaa, on kyseenalaista, koska kukaan ei todellakaan tiedä, kuinka mielemme toimii tässä ominaisuudessa.

Älä anna näennäisen matemaattisen kaavan johdata harhaan ja kuvittele, että riskin johtaminen ajon aikana on jotenkin täysin selvä. On valtava määrä harkintaa siihen, kuinka sinä ihmisenä luokittelet altistumisen, vakavuuden ja hallittavuuden.

Tämä ajoriskin johtaminen on vaikeaa ihmisille. Tekoälyn luominen samoin on myös poikkeuksellisen vaikeaa. Erityisesti tekoälyn ajojärjestelmän ydinominaisuus edellyttää, että on tehtävä algoritmeihin perustuvia päätöksiä (ADM) ajoriskeistä. Saatat olla yllättynyt tietää, että monet tekoälyn ajojärjestelmät eivät nykyään suorita ajoriskin laskemista ja arviointia luotettavasti. Yleensä käytetään erittäin karkeita ja erittäin yksinkertaistettuja lähestymistapoja. Avoin kysymys on, laajeneeko tämä itseohjautuvien autojen laajaan käyttöön. Lisätietoja tästä dilemmasta, joka liittyy kuuluisaan ajatuskokeeseen, joka tunnetaan nimellä Trolley Problem, katso analyysini osoitteessa tämä linkki täällä.

Toinen huolenaihe on se, että tekoälyn ajojärjestelmät on usein ohjelmoitu bysanttilaisella tavalla ja ajamisen riskinäkökohtia käsittelevät osat ovat haudattu syvälle koodin suoneen. On vain vähän läpinäkyvyyttä siitä, kuinka tietty autonvalmistaja tai itse ajava teknologiayritys on valinnut ohjelmoida tekoälyjärjestelmänsä ajoriskikapasiteetit. On todennäköistä, että näemme sääntelyn ja julkisen valvonnan alkavan, kun itseajavat autot yleistyvät.

Muista, että AI Risk Management Framework määritteli neljä sidosryhmää, joille itseohjautuvat autot ovat helposti nähtävissä:

  • Tekoälyjärjestelmän sidosryhmät — Autonvalmistajat ja itseohjautuvat teknologiayritykset
  • Toimijat ja arvioijat – Laivastonhoitajat
  • Ulkoiset sidosryhmät – Kaupunginjohtajat, sääntelijät jne.
  • Yleisö – Jalankulkijat, pyöräilijät jne.

Autonvalmistajien ja itseohjautuvien teknologiayritysten tulisi tutkia riskejä, jotka liittyvät kehittämäänsä tekoälyyn ja ottamaan käyttöön itseohjautuvissa autoissa. Tekoälyriskin tukipilari olisi tekoälyn ajojärjestelmän elementeissä, vaikka tekoälyä on muitakin käyttökohteita autonomisissa ajoneuvoissa ja kuljettajattomissa autoissa.

Odotettavissa on, että kalustooperaattoreita tulee olemaan vastuussa suurten itseohjautuvien autojen käytöstä yleisön käyttöön. Näiden kalustonhaltijoiden on tyypillisesti tarkoitus pitää autonomiset ajoneuvot asianmukaisessa ajettavassa kunnossa ja varmistaa, että itseohjautuvat autot ovat turvallisia käyttää. Heidän painopisteensä on pääasiassa suunnattu laitteistoon ja vähemmän laivalla olevien ohjelmistojen käsittelyyn. Joka tapauksessa heidänkin tulisi ottaa huomioon itseohjautuviin autoihin ja niiden operatiiviseen käyttöön liittyvät tekoälyriskit.

Aina kun itseajavat autot hyväksytään julkiseen käyttöön, on todennäköistä, että eri kaupunki-, osavaltio- ja toisinaan liittovaltiotasot hyväksytään ja mahdollisesti valvotaan. On myös olemassa useita olemassa olevia lakeja ja äskettäin hyväksyttyjä lakeja, jotka säätelevät itseohjautuvien autojen käyttöä yleisillä teillä, katso artikkelini osoitteessa linkki tähän. Näiden julkisesti ajattelevien sidosryhmien tulisi myös tutkia itseajaviin autoihin liittyviä tekoälyn riskejä.

Niin kauan kuin itseajavia autoja sijoitetaan yleisille valtateille ja sivuteille, suuren yleisön tulisi myös pohtia tekoälyyn liittyviä riskejä. Jalankulkijat ovat vaarassa, että itse ajava auto törmää heihin. Sama pyöräilijöille. Kaikki muut tienkäyttäjät ovat mahdollisesti haavoittuvia tekoälyriskeille, jotka liittyvät autonomisten ajoneuvojen käyttöön millä tahansa alueella.

Yhteenveto

Meidän on kiinnitettävä enemmän huomiota tekoälyn riskeihin. Standardoidun tekoälyn riskinhallintakehyksen käyttö on kätevä työkalu tekoälyriskien selvittämiseen. On myös todennäköistä, että tekoälyn eettisten ohjeiden lisääntyvä käyttö tuo mukanaan tarvetta määrittää tekoälyriskit, mikä on osa eettisen tekoälyn ohjeiden noudattamista.

Aloitin tämän keskustelun huomauttamalla, että kenraali Patton sanoi, että meidän pitäisi nimenomaisesti laskea riski. Hän myös tunnetusti kehotti, että ihmisten tulisi aina tehdä enemmän kuin mitä heiltä vaaditaan.

Pyydän teitä harkitsemaan, että vaikka sinun ei vaadittaisikaan tutkimaan tekoälyn riskejä, sinun tulee vakavasti mennä normin ulkopuolelle ja pyrkiä siihen. Kohtaamme kaikki tekoälyriskit ja varmistamme, ettemme kiivetä epävarmalle yhteiskunnalle, josta emme pääse turvallisesti takaisin.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/04/11/ai-ethics-welcomes-the-prospects-of-a-standardized-ai-risk-management-framework-which-could- vahvista-autonominen-itseajava-auto-ponnisteluja-myös/