Tekoälyn etiikka soi hälytyskelloja valtavassa globaalissa mittakaavassa uhkaavasta tekoälypoikkeamasta, erityisesti uhkaavien täysin autonomisten järjestelmien kautta

Platon kuului sanoneen, että hyvä päätös perustuu tietoon eikä numeroihin.

Tämä terävä oivallus näyttää hämmästyttävän ennakoivalta nykypäivän tekoälystä (AI).

Huolimatta huutavista otsikoista, jotka tällä hetkellä julistavat, että tekoäly on jollain tapaa saavuttanut tajunnan ja ilmentää ihmistietoa ja järkeilyä, ota huomioon, että tämä liioiteltu tekoälyhyperboli on salakavala vääryys, koska luotamme yhä numeroiden murskaamiseen nykypäivän algoritmien päätöksenteossa (ADM). ) tekoälyjärjestelmien toteuttamana. Jopa ylistetty koneoppiminen (ML) ja Deep Learning (DL) koostuvat laskennallisesta mallisovituksesta, mikä tarkoittaa, että numerot ovat edelleen ML/DL:n korkean käytön ytimessä.

Emme tiedä, onko tekoäly saavuttaa tuntokyky. Voisi olla, ehkä ei. Kukaan ei voi varmuudella sanoa, kuinka tämä voi syntyä. Jotkut uskovat, että parannamme asteittain laskennallisia tekoälyponnistelujamme siten, että tietynlainen tuntemus syntyy spontaanisti. Toiset ajattelevat, että tekoäly saattaa mennä eräänlaiseen laskennalliseen supernovaan ja saavuttaa tuntokyvyn melko omasta tahdostaan ​​(jota kutsutaan tyypillisesti singulariteettiksi). Lisätietoja näistä tekoälyn tulevaisuutta koskevista teorioista on artikkelissani linkki tähän.

Älkäämme siis huijatko itseämme ja uskoko valheellisesti, että nykyaikainen tekoäly kykenee ajattelemaan kuten ihmiset. Oletan, että kysymys nousee sitten etualalle Platonin huomautuksesta, että voimmeko tehdä hyviä päätöksiä laskennalliseen tekoälyyn perustuen sentientoivaan tekoälyyn. Saatat yllättyä kuullessani, että väitän, että jokapäiväiset tekoälyjärjestelmät voivat todellakin tehdä hyviä päätöksiä.

Kolikon toinen puoli on, että meillä voi olla myös päivittäisiä tekoälyjärjestelmiä, jotka tekevät huonoja päätöksiä. Tyhmiä päätöksiä. Päätökset, jotka ovat täynnä epäsuotuisia ennakkoluuloja ja epäoikeudenmukaisuutta. Saatat olla tietoinen siitä, että kun uusin tekoälyn aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Paitsi äänekäs juridinen väärinkäytösten hillitsemiseen tähtäävät pyrkimykset omaksua tekoälyn etiikka tekoälyn ilkeyden korjaamiseksi. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Laaja kattaukseni tekoälyn eettisyydestä ja eettisestä tekoälystä löytyy osoitteesta tämä linkki täällä ja tämä linkki täällä, vain muutamia mainitakseni.

Tätä keskustelua varten haluaisin tuoda esiin erityisen huolestuttavan AI-näkökohdan, josta tekoälyn etiikka-areenalla olevat valittavat ja yrittävät lisätä osuvaa tietoisuutta. Raitistava ja hämmentävä asia on itse asiassa melko yksinkertaista huomauttaa.

Tässä se on: Tekoälyllä on todellista potentiaalia levittää tekoälyyn vaikuttavia harhoja hälyttävässä maailmanlaajuisessa mittakaavassa.

Ja kun sanon "mittakaavassa", tämä tarkoittaa todistetusti maailmanlaajuista massiivista. Huumori mittakaavassa. Vaaka, joka irtoaa vaa'alta.

Ennen kuin sukeltan siihen, miten tämä tekoälyn skaalaus tapahtuu, varmistakaamme, että meillä kaikilla on käsitys siitä, kuinka tekoäly voi sisältää kohtuuttomia harhoja ja epätasa-arvoa. Muista jälleen, että tämä ei ole tunnollinen lajike. Tämä kaikki on laskennallista kaliiperia.

Saatat olla hämmentynyt siitä, kuinka tekoäly voi saada aikaan samanlaisia ​​haitallisia harhoja ja epätasa-arvoa kuin ihmiset. Meillä on tapana ajatella, että tekoäly on täysin neutraali, puolueeton, yksinkertaisesti kone, jolla ei ole mitään sellaista emotionaalista vaikutusta ja huonoa ajattelua, jota ihmisillä saattaa olla. Yksi yleisimmistä keinoista, joilla tekoäly joutuu harhaan ja epätasa-arvoon, tapahtuu koneoppimista ja syväoppimista käytettäessä, osittain siksi, että luotetaan kerättyihin tietoihin siitä, miten ihmiset tekevät päätöksiä.

Anna minulle hetki tarkentaa.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat käyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Machine Learning- tai Deep Learning -laskentamallin täsmäytys yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteon algoritmi eli ADM tulee aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Tämä vie meidät mittakaavassa tapahtuvaan tekoälyn ylikuormitukseen.

Katsotaanpa ensin, kuinka inhimilliset ennakkoluulot voivat luoda eriarvoisuutta. Asuntolainoja myöntävä yritys päättää palkata asuntolainaagentin. Välittäjän on tarkoitus tarkastella asuntolainaa haluavien kuluttajien pyyntöjä. Asiamies tekee hakemuksen arvioinnin jälkeen päätöksen lainan myöntämisestä tai lainan epäämisestä. Helppo nakki.

Keskustelun vuoksi kuvitellaan, että henkilölaina-agentti voi analysoida 8 lainaa päivässä, jolloin arvioon menee noin tunti. Viiden päivän työviikon aikana agentti tekee noin 40 lainatarkastusta. Vuosittain välittäjä tekee tyypillisesti noin 2,000 XNUMX lainaarviointia, anna tai ota vähän.

Yhtiö haluaa lisätä lainatarkastuksiaan, joten yritys palkkaa 100 lainaagenttia lisää. Oletetaan, että niillä kaikilla on suunnilleen sama tuottavuus ja että tämä tarkoittaa, että voimme nyt käsitellä noin 200,000 2,000 lainaa vuodessa (XNUMX XNUMX lainatarkastusta vuodessa agenttia kohden). Näyttää siltä, ​​että olemme todella nopeuttaneet lainahakemusten käsittelyä.

Osoittautuu, että yritys suunnittelee tekoälyjärjestelmän, joka voi käytännössä tehdä samat lainatarkastukset kuin ihmisagentit. Tekoäly toimii tietokonepalvelimilla pilvessä. Pilviinfrastruktuurin avulla yritys voi helposti lisätä enemmän laskentatehoa, jotta se pystyy vastaamaan kaikkiin mahdollisesti tarvittaviin lainatarkastuksiin.

Nykyisellä tekoälykokoonpanolla he voivat tehdä 1,000 24 lainatarkistusta tunnissa. Tämä voi tapahtua myös 7 × 9. Tekoälylle ei tarvita loma-aikaa. Ei lounastaukoja. Tekoäly toimii kellon ympäri ilman ylityöllistymisestä huutavaa. Sanotaan, että tällä likimääräisellä vauhdilla tekoäly voi käsitellä lähes XNUMX miljoonaa lainahakemusta vuodessa.

Huomaa, että meillä oli 100 ihmisagenttia, jotka pystyivät tekemään 200,000 9 lainaa vuodessa, ja hyppäsimme monta kertaa XNUMX miljoonan vuosittaisen tekoälyjärjestelmän kautta tehdyn tarkastelun määrän lisääntymiseen. Olemme laajentaneet dramaattisesti lainahakemusten käsittelyä. Ei epäilystäkään.

Valmistaudu potkuriin, joka saattaa saada sinut putoamaan tuoliltasi.

Oletetaan, että jotkut ihmisagenteistamme tekevät lainapäätöksensä epäsuotuisten ennakkoluulojen perusteella. Ehkä jotkut antavat rodullisille tekijöille keskeisen roolin lainapäätöksessä. Ehkä jotkut käyttävät sukupuolta. Toiset käyttävät ikää. Ja niin edelleen.

Kuinka monta 200,000 10 vuosittaisesta lainatarkastelusta tehdään kielteisten ennakkoluulojen ja epäoikeudenmukaisuuden väärissä katseissa? Ehkä 20,000 %, mikä on noin 50 100,000 lainahakemuksista. Vielä pahempaa, oletetaan, että se on XNUMX % lainahakemuksista, jolloin on olemassa melko huolestuttavia XNUMX XNUMX väärin tehtyä lainapäätöstä vuodessa.

Se on huono. Mutta meidän on vielä harkittava vielä pelottavampaa mahdollisuutta.

Oletetaan, että tekoälyllä on piilotettu harha, joka koostuu sellaisista tekijöistä kuin rotu, sukupuoli, ikä ja vastaavat. Jos 10 % vuotuisista laina-analyyseistä koskee tätä epämieluisuutta, meillä on 900,000 100 lainapyyntöä, joita käsitellään väärin. Se on paljon enemmän kuin mitä ihmisagentit voisivat tehdä, pääasiassa pelkästään volyyminäkökohtien vuoksi. Ne 200,000 agenttia, jos kaikki tekisivät epäoikeudenmukaisen tarkastelun, voisivat tehdä tämän korkeintaan 9,000,000 XNUMX vuotuisessa lainatarkastuksessa. Tekoäly voisi tehdä saman suuressa mittakaavassa XNUMX XNUMX XNUMX vuosittaisesta arvioinnista.

Yikes!

Tämä on todella tekoälyn täyttämää harhaa valtavassa mittakaavassa.

Kun tekoälyjärjestelmään sisältyy epäsuotuisia harhoja, sama edulliselta näyttänyt skaalaus kääntyy nyt päälaelleen ja siitä tulee hirvittävän houkutteleva (ja häiritsevä) skaalaustulos. Toisaalta tekoäly voi suotuisasti vauhdittaa enemmän asuntolainaa hakevia ihmisiä. Pinnalla se näyttää valtavalta AI Hyvä. Meidän pitäisi taputtaa itseämme selkään, koska oletettavasti lisäämme ihmisten mahdollisuuksia saada tarvittavia lainoja. Sillä välin, jos tekoälyssä on upotettuja harhoja, skaalaus tulee olemaan äärimmäisen mätä tulos ja huomaamme olevamme valitettavasti juuttuneet AI huono, todella massiivisessa mittakaavassa.

Sananlasku kaksiteräinen miekka.

Tekoäly voi radikaalisti lisätä haluttuja palveluita ja tuotteita etsivien pääsyä päätöksentekoon. Ei enää ihmisten rajoittamaa työvoiman pullonkaulaa. Erinomaista! Toinen miekan terä on, että jos tekoäly sisältää pahuutta, kuten piilotettuja eriarvoisuuksia, sama massiivinen skaalaus tulee levittämään tätä epäsuotuisaa käyttäytymistä käsittämättömässä mittakaavassa. Ärsyttää, väärin, häpeällistä, emmekä voi antaa yhteiskunnan joutua näin rumaan kuiluun.

Kaikkien, jotka ovat olleet ymmällään siitä, miksi meidän on pohdittava tekoälyn etiikan tärkeyttä, pitäisi nyt ymmärtää, että tekoälyn skaalausilmiö on helvetin tärkeä syy eettiseen tekoälyyn. Tarkastellaanpa lyhyesti joitain keskeisiä eettisiä tekoälyohjeita havainnollistaaksemme, minkä pitäisi olla jokaisen tekoälyä tekevän, kenttätyön tai tekoälyn käyttävän keskeinen painopiste.

Esimerkiksi, kuten Vatikaani totesi Rooma kutsu tekoälyn etiikkaan ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän tunnistamansa kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä tulisi yleisesti noudattaa, kun taas tilanne on paljon monimutkaisempi, kun tekoälykoodauksen on oltava todellinen kumi, joka kohtaa tien.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Huomaa, että tekoälyn suunnittelu ja toteuttaminen vaatii kylän. Sitä varten koko kylän on pysyttävä varpaillaan tekoälyn eettisyydestä.

Kuinka AI-Steped Biases -skaalaus toimii

Nyt kun olen päässyt taulukkoon, että tekoäly voi sisältää harhoja, olemme valmiita tutkimaan joitain syitä, miksi tekoälyn skaalaus on niin häiritsevää.

Harkitse tätä kulmakiviluetteloa kymmenestä taustalla olevasta syystä:

  1. Helposti kopioitavissa
  2. Pienin mittakaavakustannukset
  3. Järkyttävän johdonmukaista
  4. Itsereflektorin puute
  5. Sokea tottelevaisuus
  6. Ei kallista kättään
  7. Vastaanottaja ei aavistanut
  8. Ei tapana kannustaa provokaatioihin
  9. Väärä oikeudenmukaisuuden aura
  10. Vaikea kiistää

Tutkin lyhyesti jokaista näistä tärkeistä kohdista.

Kun yrität laajentaa skaalaa ihmistyöllä, sen tekeminen on todennäköisesti erittäin monimutkaista. Sinun on löydettävä ja palkattava ihmiset. Sinun on koulutettava heidät tekemään työtä. Sinun on maksettava heille ja otettava huomioon ihmisten toiveet ja tarpeet. Vertaa tätä tekoälyjärjestelmään. Kehität sitä ja otat sen käyttöön. Muuten kuin jonkin verran jatkuvaa tekoälyn ylläpitoa, voit rentoutua ja antaa sen käsitellä loputtomasti.

Tämä tarkoittaa, että tekoäly on helppo replikoida. Voit lisätä laskentatehoa tehtävän ja määrän mukaan (et palkkaa tai irtisano). Maailmanlaajuinen käyttö tapahtuu napin painalluksella ja saavutetaan Internetin maailmanlaajuisella saatavuudella. Skaalaus on minimaalinen kustannus verrattuna vastaavan tekemiseen ihmistyöllä.

Ihmistyö on tunnetusti epäjohdonmukaista. Kun sinulla on suuria joukkueita, sinulla on todellinen suklaarasia, jossa et koskaan tiedä, mitä sinulla saattaa olla käsissäsi. Tekoälyjärjestelmä on todennäköisesti erittäin johdonmukainen. Se toistaa samat toiminnot yhä uudelleen ja uudelleen, ja joka kerta on olennaisesti sama kuin edellinen.

Normaalisti nautimme tekoälyn johdonmukaisuudesta. Jos ihmiset ovat alttiita harhaan, meillä on aina osa ihmistyöstämme, joka menee harhaan. Tekoäly olisi selkeästi johdonmukaisempi, jos se olisi täysin puolueeton rakentamisessa ja laskennassa. Ongelmana on kuitenkin se, että jos tekoälyssä on piilotettuja harhoja, johdonmukaisuus on nyt tuskallisen vastenmielistä. Todennäköisyys on, että puolueellinen käyttäytyminen toteutetaan johdonmukaisesti, yhä uudelleen ja uudelleen.

Toivon, että ihmisillä olisi jonkin verran aavistusta itsetutkiskelusta ja ehkä huomaavat tekevänsä puolueellisia päätöksiä. En väitä, että kaikki tekisivät niin. En myöskään väitä, että ne, jotka saavat itsensä kiinni, korjaavat välttämättä virheensä. Joka tapauksessa ainakin jotkut ihmiset oikaisivat itseään.

Tekoälyllä ei todennäköisesti ole minkäänlaista laskennallista itseheijastusta. Tämä tarkoittaa, että tekoäly vain jatkaa sen tekemistä. Tekoälyllä ei näytä olevan mitään mahdollisuutta havaita, että se on ristiriidassa pääoman kanssa. Olen kuitenkin kuvaillut joitain ponnisteluja tämän ratkaisemiseksi, kuten tekoälyn eettisten komponenttien rakentaminen tekoälyssä (katso linkki tähän) ja suunnittelemalla tekoälyä, joka valvoo muita tekoälyjä havaitakseen epäeettisiä tekoälytoimintoja (katso linkki tähän).

Koska tekoälyllä ei ole minkäänlaista itseheijastusta, se on myös todennäköisesti sokea tottelevainen sille, mitä sille käskettiin tehdä. Ihminen ei ehkä ole niin tottelevainen. On mahdollista, että jotkut tehtävää suorittavat ihmiset kyseenalaistavat, ohjataanko heitä kenties epäoikeudenmukaisuuden alueelle. Heillä on taipumus hylätä epäeettiset käskyt tai ehkä mennä ilmiantajien tielle (katso uutiseni osoitteessa tämä linkki täällä). Älä odota, että jokapäiväinen nykyaikainen tekoäly kyseenalaistaa ohjelmointinsa.

Seuraavaksi siirrymme niihin, jotka käyttävät tekoälyä. Jos etsit asuntolainaa ja puhuit ihmisen kanssa, saatat olla valppaana sen suhteen, antaako ihminen sinulle hyvän ravistuksen. Tekoälyjärjestelmää käytettäessä useimmat ihmiset näyttävät olevan vähemmän epäluuloisia. He olettavat usein, että tekoäly on oikeudenmukainen, eivätkä siksi tule niin nopeasti suuttumaan. Tekoäly näyttää tuudittavan ihmiset "se on vain kone" transsiin. Tämän lisäksi voi olla vaikea yrittää protestoida tekoälyä vastaan. Sitä vastoin protestoiminen siitä, miten ihmisagentti kohteli sinua, on paljon helpompaa ja paljon yleisemmin hyväksyttyä ja oletettua elinkelpoiseksi.

Kaiken kaikkiaan ennakkoluuloista tekoälyllä on häpeällinen etulyöntiasema ihmisiin nähden, nimittäin se, että tekoäly voi käyttää näitä ennakkoluuloja valtavassa mittakaavassa ilman, että se jää helposti kiinni tai hankkii kuluttajia. tajuta, mitä häiritsevää on tapahtumassa.

Tämän keskustelun tässä vaiheessa lyön vetoa, että kaipaat lisäesimerkkejä, jotka voisivat tuoda esille tekoälyn aiheuttamien harhojen ongelman mittakaavassa.

Olen iloinen, että kysyit.

On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo mitään tekoälyn valtaavista harhoista mittakaavassa, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, että tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä aitoa itse ajavaa autoa, jota emme vielä edes tiedä, onko tämä mahdollista saavuttaa ja kuinka kauan sen saavuttaminen vie.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoälyn harha mittakaavassa

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Luotan siihen, että se tarjoaa riittävän litanian varoituksia, jotka tukevat sitä, mitä aion kertoa.

Meillä on nyt valmiudet sukeltaa syvälle itseohjautuviin autoihin ja eettisiin tekoälymahdollisuuksiin, joihin liittyy laajassa mittakaavassa levitettyjen tekoälyn aiheuttamien ennakkoluulojen tutkiminen.

Käytetään helposti suoraviivaista esimerkkiä. Tekoälypohjainen itseajava auto on käynnissä naapurustosi kaduilla ja näyttää ajavan turvallisesti. Aluksi olit kiinnittänyt erityistä huomiota jokaiseen kertaan, kun onnistuit näkemään vilauksen itseohjautuvasta autosta. Autonominen ajoneuvo erottui joukosta elektronisilla antureilla, jotka sisälsivät videokameroita, tutkayksiköitä, LIDAR-laitteita ja vastaavia. Useiden viikkojen itseohjautuvan auton risteilyn jälkeen paikkakunnallasi et enää huomaa sitä. Sinun mielestäsi se on vain toinen auto jo ennestään vilkkaalla yleisellä tiellä.

Jotta ei luulisi olevan mahdotonta tai epätodennäköistä tutustua itseohjautuvien autojen näkemiseen, olen kirjoittanut usein siitä, kuinka itseohjautuvien autojen kokeilujen piirissä olevat paikkakunnat ovat vähitellen tottuneet näkemään koristeltuja ajoneuvoja, katso analyysini osoitteessa tämä linkki täällä. Monet paikalliset siirtyivät lopulta suuhunsa ammottavasta ihastuttavasta haukotuksesta nyt levittävään tylsyyden haukotteluun nähdäkseen kiemurtelevia itseohjautuvia autoja.

Todennäköisesti suurin syy tällä hetkellä siihen, että he saattavat huomata autonomiset ajoneuvot, johtuu ärsytys- ja kiihtyvyystekijästä. Tekoälyjärjestelmät varmistavat, että autot noudattavat kaikkia nopeusrajoituksia ja liikennesääntöjä. Hektiset ihmiskuljettajat perinteisissä ihmisvetoisissa autoissaan ärsyyntyvät toisinaan, kun jäävät tiukasti lainkuuliaisten tekoälyyn perustuvien itseohjautuvien autojen taakse.

Se on jotain, johon meidän kaikkien on ehkä totuttava, oikeutetusti tai väärin.

Takaisin tarinaamme.

Osoittautuu, että muutoin vaarattomista ja yleisesti tervetulleista tekoälypohjaisista itseohjautuvista autoista alkaa nousta kaksi sopimatonta huolta, erityisesti:

a. Siellä missä tekoäly vaeltelee itse ajavia autoja kyytiä varten, oli äänekäs huolenaihe.

b. Se, miten tekoäly kohtelee odottavia jalankulkijoita, joilla ei ole etuoikeutta, nousi esiin kiireellisenä ongelmana

Aluksi tekoäly vaelsi itseajavissa autoissa koko kaupungissa. Jokaisella, joka halusi pyytää kyytiä itseajavaan autoon, oli periaatteessa yhtäläinen mahdollisuus saada sellainen. Vähitellen tekoäly alkoi ensisijaisesti pitää itseajavat autot liikkumassa vain yhdessä kaupunginosassa. Tämä osio tuotti enemmän rahaa, ja tekoälyjärjestelmä oli ohjelmoitu yrittämään maksimoida tulot osana käyttöä yhteisössä.

Kaupungin köyhien osien yhteisön jäsenet eivät pystyneet saamaan kyytiä itseajavalta autolta. Tämä johtui siitä, että itseajavat autot olivat kauempana ja vaelsivat alueen korkeamman tulotason osassa. Kun pyyntö saapui kaukaisesta kaupunginosasta, kaikki pyynnöt lähemmästä paikasta, joka oli todennäköisesti "arvostetussa" kaupunginosassa, saivat korkeamman prioriteetin. Lopulta itseohjautuvan auton saatavuus muualta kuin kaupungin rikkaimmasta osasta oli lähes mahdotonta, mikä oli raivostuttavaa niille, jotka asuivat nykyisillä luonnonvarojen nälkäisillä alueilla.

Voisit väittää, että tekoäly joutui melko pitkälle välityssyrjinnän muotoon (kutsutaan usein myös epäsuoraksi syrjinnäksi). Tekoälyä ei ohjelmoitu välttämään näitä köyhempiä kaupunginosia. Sen sijaan se "oppii" tekemään niin ML/DL:n avulla.

Asia on siinä, että kyytiauton kuljettajat tunnettiin tekevänsä samaa, vaikkakaan ei välttämättä pelkästään rahantekokulman vuoksi. Joillakin kyydissä olevista ihmiskuljettajista oli epäsuotuisa ennakkoluulo ratsastajien poimimisessa tietyistä kaupungin osista. Tämä oli jokseenkin tunnettu ilmiö, ja kaupunki oli ottanut käyttöön valvontamenetelmän saadakseen kiinni ihmiskuljettajista. Ihmiskuljettajat voivat joutua vaikeuksiin suorittaessaan epämiellyttäviä valintakäytäntöjä.

Oletuksena oli, että tekoäly ei koskaan putoaisi samanlaiseen juoksevaan hiekkaan. Mitään erityistä valvontaa ei perustettu, jotta voitaisiin seurata, minne tekoälypohjaiset itseajavat autot olivat menossa. Vasta kun yhteisön jäsenet alkoivat valittaa, kaupungin johtajat ymmärsivät, mitä oli tapahtumassa. Lisätietoja tämän tyyppisistä kaupunginlaajuisista ongelmista, joita autonomiset ajoneuvot ja itseohjautuvat autot aikovat esitellä, katso kattavuus osoitteessa tämä linkki täällä ja joka kuvaa Harvardin johtamaa tutkimusta, jonka olen kirjoittanut aiheesta.

Tämä esimerkki tekoälypohjaisten itseohjautuvien autojen roaming-näkökohdista havainnollistaa aiempaa osoitusta siitä, että voi olla tilanteita, joissa ihmisillä on epätoivottuja ennakkoluuloja, joita varten on otettu käyttöön valvontaa ja että nämä ihmiskuljettajat korvaava tekoäly jää skotlantiin. vapaa. Valitettavasti tekoäly voi vähitellen juuttua samankaltaisiin harhaan ja tehdä niin ilman riittäviä suojakaiteita.

Tämä esittelee myös tekoälyn valtavia harhoja mittakaavaongelmassa.

Ihmiskuljettajien tapauksessa meillä olisi saattanut olla täällä tai siellä muutamia, jotka harjoittivat jonkinlaista epäoikeudenmukaisuutta. Tekoälyajojärjestelmässä se on yleensä yksi tällainen yhtenäinen tekoäly koko itseohjautuvaa autokantaa varten. Näin ollen olisimme saattaneet aloittaa vaikkapa viidelläkymmenellä itseohjautuvalla autolla kaupungissa (kaikki ajavat samalla AI-koodilla) ja kasvaneet vähitellen esimerkiksi 500 itseohjautuvaan autoon (kaikkia ajetaan samalla AI-koodilla). Koska kaikkia näitä viittäsataa itseohjautuvaa autoa käyttää sama tekoäly, ne kaikki ovat vastaavasti samanlaisten tekoälyn sisältämien harhojen ja epätasa-arvoisuuden alaisia.

Skaalaus vahingoittaa meitä siinä suhteessa.

Toisessa esimerkissä tekoäly määrittää, pysähtyykö odottaville jalankulkijoille, joilla ei ole etuoikeutta ylittää katu.

Olet epäilemättä ajanut ja törmännyt jalankulkijoihin, jotka odottavat kadun ylittämistä, mutta heillä ei kuitenkaan ollut etuoikeutta tehdä niin. Tämä tarkoitti sitä, että sinulla oli harkintavaltaa päättää, pysähdytkö ja annatko heidän ylittää. Voit edetä päästämättä heidän ylittää ja noudattaa silti täysin laillisia ajosääntöjä.

Tutkimukset siitä, kuinka ihmiskuljettajat päättävät pysähtyä tai olla pysähtymättä tällaisten jalankulkijoiden puolesta, ovat osoittaneet, että joskus ihmiskuljettajat tekevät valinnan epäsuotuisten ennakkoluulojen perusteella. Ihmiskuljettaja saattaa katsoa jalankulkijaa ja päättää olla pysähtymättä, vaikka hän olisi pysähtynyt, jos jalankulkija olisi ollut ulkonäöltään erilainen, esimerkiksi rodun tai sukupuolen perusteella. Olen tutkinut tätä klo linkki tähän.

Kuvittele, että tekoälyyn perustuvat itseohjautuvat autot on ohjelmoitu käsittelemään kysymystä siitä, pysähtyäkö vai ei jalankulkijoille, joilla ei ole etuoikeutta. Näin tekoälyn kehittäjät päättivät ohjelmoida tämän tehtävän. He keräsivät tietoja kaupungin videokameroista, joita on sijoitettu ympäri kaupunkia. Aineisto esittelee ihmiskuljettajia, jotka pysähtyvät jalankulkijoille, joilla ei ole etuoikeutta, ja ihmiskuljettajia, jotka eivät pysähdy. Se kaikki on koottu suureksi tietojoukoksi.

Koneoppimisen ja Deep Learningin avulla tiedot mallinnetaan laskennallisesti. AI-ajojärjestelmä käyttää sitten tätä mallia päättääkseen, milloin pysähtyä tai olla pysähtymättä. Yleisesti ajatus on, että riippumatta siitä, mistä paikallinen tapa koostuu, näin tekoäly ohjaa itse ajavaa autoa.

Kaupungin johtajien ja asukkaiden yllätykseksi tekoäly ilmeisesti päätti pysähtyä tai olla pysähtymättä jalankulkijan ulkonäön perusteella, mukaan lukien rodun ja sukupuolen perusteella. Itseajavan auton anturit skannasivat odottavan jalankulkijan, syöttäisivät nämä tiedot ML/DL-malliin ja malli lähettäisi tekoälylle, pysähtyykö vai jatkaako se. Valitettavasti kaupungissa oli jo paljon inhimillistä kuljettajaa tässä suhteessa, ja tekoäly matki nyt samaa.

Tämä esimerkki havainnollistaa, että tekoälyjärjestelmä saattaa vain kopioida jo olemassa olevia ihmisten epäsuotuisia ennakkoluuloja. Lisäksi se tekee sen mittakaavassa. Kuka tahansa ihmiskuljettaja on saatettu joskus opetettu tekemään tätä epämiellyttävää valinnan muotoa tai ehkä henkilökohtaisesti valittu tekemään niin, mutta on mahdollista, että suurin osa ihmiskuljettajista ei todennäköisesti tee tätä massassa.

Sitä vastoin itseohjautuvien autojen ajamiseen käytetty tekoälyjärjestelmä toteuttaa todennäköisesti hirvittävän johdonmukaisesti ja varmasti johdetun harhan.

Yhteenveto

On monia tapoja yrittää välttää suunnittelemasta tekoälyä, jossa on epäsuotuisia ennakkoluuloja tai joka ajan mittaan kerää ennakkoluuloja. Ajatuksena on mahdollisuuksien mukaan saada ongelmat kiinni ennen kuin siirryt korkeaan vaihteeseen ja nostat skaalausta. Toivottavasti ennakkoluulot eivät pääse niin sanotusti ulos ovesta.

Oletetaan kuitenkin, että tekoälyssä syntyy tavalla tai toisella harhaa. Kun olet ottanut käyttöön tekoälyn massiivisessa mittakaavassa, et voi tehdä vain yhtä niistä usein julistetuista teknisistä "sammuta ja unohda" -käsityksistä. Sinun on pysyttävä ahkerasti AI:n ajan tasalla ja pyrittävä havaitsemaan kaikki epäsuotuisat harhat, jotka on korjattava.

Kuten aiemmin huomautettiin, yksi lähestymistapa sisältää sen varmistamisen, että tekoälykehittäjät ovat tietoisia tekoälyetiikasta ja kannustavat heitä siten ohjelmoimaan tekoälyn välttämään nämä asiat. Toinen keino on se, että tekoäly itse valvoo itse epäeettistä käyttäytymistä ja/tai toinen tekoäly, joka tarkkailee muita tekoälyjärjestelmiä mahdollisesti epäeettisen käyttäytymisen varalta. Olen käsitellyt lukuisia muita mahdollisia ratkaisuja kirjoituksissani.

Viimeinen ajatus toistaiseksi. Kun tämä keskustelu on aloitettu Platonin lainauksella, saattaa olla sopivaa lopettaa keskustelu vielä yhdellä Platonin älykkäällä lausunnolla.

Platon sanoi, että hyvän asian toistamisesta ei ole haittaa.

Tekoälyn mittaamisen helppous on varmasti käyttökelpoinen keino saavuttaa tällainen pirteä toive, kun tekoäly on AI Hyvä lajike. Nautimme hyvän asian toistamisesta. Kun AI on AI huono ja täynnä epätoivoisia ennakkoluuloja ja epätasa-arvoisuutta, voisimme nojata Platonin huomautuksiin ja sanoa, että huonon asian toistamisesta on paljon haittaa.

Kuunnellaan tarkasti Platonin viisaita sanoja ja suunnitellaan tekoälymme niiden mukaisesti.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- globaalissa mittakaavassa-erityisesti-fueled-via-looming-full-autonomous-systems/