Tekoälyn etiikka sanoo, että tekoälyä tulisi käyttää erityisesti silloin, kun inhimillisiä ennakkoluuloja on runsaasti

Ihmisten on tiedettävä rajoituksensa.

Saatat muistaa samankaltaisen kuuluisan linjan rajoitustemme tiedosta, jonka hahmo Likainen Harry sanoi karmeasti vuoden 1973 elokuvassa nimeltä Magnum Force (näyttelijä Clint Eastwoodin puhuttujen sanojen mukaan hänen mieleenpainuvassa roolissaan tarkastaja Harry Callahanina). Yleinen käsitys on, että joskus meillä on taipumusta sivuuttaa omat rajamme ja päästä kuumaan veteen sen mukaisesti. Johtuipa sitten ylimielisyydestä, itsekeskeisyydestä tai yksinkertaisesti sokeudesta omille kyvyillemme, ohje olla tietoinen taipumuksistamme ja puutteistamme ja ottaa ne selkeästi huomioon on erittäin järkevä ja hyödyllinen.

Lisätään viisaaseen neuvoon uusi käänne.

Tekoäly (AI) on oppinut tuntemaan rajoituksensa.

Mitä tarkoitan kunnioitetun tunnuslauseen muunnelmalla?

Osoittautuu, että ensimmäinen kiire saada nykyaikainen tekoäly käyttöön maailman ongelmien toiveikkaana ratkaisijana on tullut tahriintuneeksi ja täysin mutaiseksi sen oivalluksen vuoksi, että nykypäivän tekoälyllä on joitain melko vakavia rajoituksia. Lähdimme kohoavista otsikoista AI Hyvä ja olemme yhä useammin havainneet olevansa juuttuneet siihen AI huono. Katsos, monia tekoälyjärjestelmiä on kehitetty ja käytetty kaikenlaisilla epäsuotuisilla rotu- ja sukupuoliharhoilla ja lukemattomilla muilla kauhistuttavilla eriarvoisuuksilla.

Katso kattava ja jatkuva kattavuus tekoälyn eettisyydestä ja eettisestä tekoälystä linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Näissä tekoälyjärjestelmissä havaitut harhat eivät ole sitä, sanotaanko "tahallista" tyyppiä, jonka katsoisimme ihmisten käyttäytymiselle. Mainitsen tämän korostaakseni, että nykypäivän tekoäly ei ole tunteva. Huolimatta niistä huutavista otsikoista, jotka viittaavat toisin, missään ei yksinkertaisesti ole tekoälyä, joka olisi lähellekään tuntevaa. Tämän lisäksi emme tiedä, kuinka saada tekoäly tunneluokkiin, ja kukaan ei voi sanoa varmasti, saavutammeko koskaan tekoälyn tunteen. Ehkä se joskus tapahtuu, tai ehkä ei.

Joten, pointtini on, että emme voi erityisesti osoittaa aikomusta sellaiselle tekoälylle, joka meillä tällä hetkellä on. Tästä huolimatta voimme antaa runsaasti tarkoitusta niille, jotka luovat tekoälyjärjestelmiä. Jotkut tekoälykehittäjät eivät ole tietoisia siitä, että he ovat kehittäneet tekoälyjärjestelmän, joka sisältää epämiellyttäviä ja mahdollisesti laittomia ennakkoluuloja. Samaan aikaan muut tekoälykehittäjät ymmärtävät, että he tunkeutuvat tekoälyjärjestelmiinsä harhaan, mikä mahdollisesti tekee sen tarkoituksellisesti väärin.

Joka tapauksessa lopputulos on silti sopimaton ja todennäköisesti laiton.

Kovia ponnisteluja on meneillään sellaisten tekoälyn eettisten periaatteiden levittämiseksi, jotka valaisevat tekoälykehittäjiä ja tarjoavat sopivaa opastusta välttääkseen vääristymien upottamista tekoälyjärjestelmiinsä. Tämä auttaa kahdella tavalla. Ensinnäkin niillä, jotka tekevät tekoälyä, ei enää ole valmiita tekosyitä, etteivät he vain olleet tietoisia siitä, mitä ohjeita tulisi noudattaa. Toiseksi ne, jotka poikkeavat eettisistä tekoälyolosuhteista, saadaan helpommin kiinni ja niiden osoitetaan estävän sen, mitä heitä on varoitettu sekä tekemään että olematta tekemättä.

Otetaan hetki aikaa tarkastellaksemme lyhyesti joitakin keskeisiä eettisen tekoälyn sääntöjä havainnollistaaksemme, mitä tekoälyrakentajien tulisi ajatella ja noudattaa tiukasti tekoälyn etiikkaa.

Kuten Vatikaani totesi Rooma kutsu tekoälyn etiikkaan ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän tunnistamansa kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä tulisi yleisesti noudattaa, kun taas tilanne on paljon monimutkaisempi, kun tekoälykoodauksen on oltava todellinen kumi, joka kohtaa tien.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Huomaa, että tekoälyn suunnittelu ja toteuttaminen vaatii kylän. Sitä varten koko kylän on pysyttävä varpaillaan tekoälyn eettisyydestä.

Joka tapauksessa, nyt kun olen päässyt pöytään, että tekoäly voi sisältää ennakkoluuloja, voimme ehkä kaikki olla samaa mieltä näistä kahdesta ilmeisestä tosiasiasta:

1. Ihmisillä voi olla lukuisia epäsuotuisia ennakkoluuloja ja he voivat toimia niiden mukaan

2. Tekoälyllä voi olla lukuisia epäsuotuisia harhoja ja se voi toimia näiden harhojen perusteella

Olen jossain määrin inhottava pinoamaan ihmisiä ja tekoälyä tässä yhteydessä, koska se saattaa jotenkin viitata siihen, että tekoälyllä on samat aistilliset kyvyt kuin ihmisillä. Näin ei varmasti ole. Palaan hetkeksi kasvaviin huolenaiheisiin tekoälyn antropomorfoinnista hieman myöhemmin tässä keskustelussa.

Kumpi on pahempaa, ihmiset, jotka osoittavat epäsuotuisia ennakkoluuloja, vai tekoäly, joka tekee niin?

Uskallan väittää, että kysymys on yksi niistä vaikeista vaihtoehdoista. Se on sananlaskun mukaan pienempi kahdesta pahasta, voisi väittää. Toivomme, että ihmiset eivät ilmentäisi epäsuotuisia ennakkoluuloja. Lisäksi toivomme, että vaikka ihmisillä olisikin epäsuotuisia ennakkoluuloja, he eivät toimi näiden ennakkoluulojen perusteella. Sama voidaan sanoa osuvasti tekoälystä. Toivomme, että tekoäly ei upottaisi epäsuotuisia harhoja ja että vaikka sellaisia ​​sisäisesti koodattuja harhoja olisikin, tekoäly ei ainakaan toimisi niiden perusteella.

Toiveet eivät kuitenkaan välttämättä johda maailmaa (analyysilleni ns. AI toiveiden täyttymys yhteiskunnassa yleensä, ks linkki tähän).

Okei, me tietysti haluamme ihmisten tietävän rajoituksensa. On tärkeää tunnistaa, kun sinulla on epäsuotuisia ennakkoluuloja. Yhtä tärkeää on yrittää estää näiden epäsuotuisten ennakkoluulojen tunkeutuminen toimintaasi ja päätöksiisi. Yritykset yrittävät nykyään kaikenlaisia ​​lähestymistapoja estääkseen työntekijöitään joutumasta epämiellyttäviin ennakkoluuloihin, jotka ovat vakavia sudenkuoppia. Työntekijöille järjestetään erityiskoulutusta siitä, miten työnsä tehdään eettisesti järkevällä tavalla. Prosessit muotoillaan työntekijöiden ympärille varoittamaan heitä, kun he näyttävät osoittavan epäeettisiä tapoja. Ja niin edelleen.

Toinen keino selviytyä ihmisten ja heidän epäsuotuisista ennakkoluuloistaan ​​olisi automatisoida ihmislähtöistä työtä. Kyllä, poista vain ihminen silmukasta. Älä anna ihmisen tehdä päätöksentekotehtävää, ja sinulla ei oletettavasti ole enää viipyviä huolia ihmisen suhtautumisesta epäsuotuisiin ennakkoluuloihin. Ihminen ei ole osallisena, joten ihmisten mahdollisten ennakkoluulojen ongelma näyttää olevan ratkaistu.

Otan tämän esiin, koska olemme todistamassa asteittaista ja massiivista siirtymistä kohti tekoälyn käyttöä algoritmipäätöksenteossa (ADM). Jos voit korvata ihmistyöntekijän tekoälyllä, on todennäköistä, että siitä tulee paljon etuja. Kuten jo mainittiin, et enää murehdi tuon ihmistyöntekijän (sen, joka ei enää tee tuota työtä) inhimillisistä ennakkoluuloista. Mahdollisuus on, että tekoäly on yleisesti ottaen halvempi verrattuna pitkän aikavälin aikahorisonttiin. Luovut kaikista muista erilaisista vaikeuksista, joita ihmistyöntekijöiden kanssa tulee osa-ja paketti. Jne.

Ehdotus, joka saa jalansijaa, näyttää olevan tämä: Kun yrität päättää, mihin tekoäly on parasta sijoittaa, katso ensin asetuksia, jotka jo sisältävät työntekijöidesi epäsuotuisia inhimillisiä ennakkoluuloja ja joissa nämä ennakkoluulot alittavat tai muutoin hankaloittavat tiettyjä päätöksentekotehtäviä.

Tärkeintä on, että vaikuttaisi järkevältä kerätä rahaa vastineeksi investoimalla tekoälyyn kohdistamalla suoraan ihmisten erittäin alttiisiin päätöksentekotehtäviin, joita on vaikea hallita epäsuotuisan puolueellisuuden näkökulmasta. Poista ihmistyöntekijät siinä roolissa. Korvaa ne tekoälyllä. Oletuksena on, että tekoälyllä ei olisi tällaisia ​​epäsuotuisia harhoja. Siksi voit syödä kakkusi ja myös syödä sen, eli saada päätöstehtävät suoritettua ja tehdä niin miinus eettiset ja oikeudelliset haamut epäsuotuisista ennakkoluuloista.

Kun otat asian esille, ROI (sijoitetun pääoman tuotto) tekee tekoälyn käyttöönotosta todennäköisesti järjettömän valinnan.

Näin se yleensä menee.

Katso koko yritystäsi ja yritä tunnistaa päätöksentekotehtävät, jotka vaikuttavat asiakkaisiin. Mitkä näistä tehtävistä ovat todennäköisimmin vääristyneitä, jos työntekijät ilmentävät epäsuotuisia ennakkoluuloja? Jos olet jo yrittänyt hillitä näitä ennakkoluuloja, ehkä annat asioiden olla entisellään. Toisaalta, jos ennakkoluuloja ilmaantuu jatkuvasti ja niiden poistaminen on työlästä, harkitse asiaankuuluvan tekoälyn pudottamista tähän rooliin. Älä pidä työntekijöitä sekaisin, koska he voivat ohittaa tekoälyn tai työntää tekoälyn suoraan takaisin epäsuotuisten ennakkoluulojen kuiluun. Varmista myös, että tekoäly pystyy suorittamaan tehtävän taitavasti ja että olet riittävän hyvin omaksunut työn suorittamiseen tarvittavat päätöksenteon näkökohdat.

Huuhtele ja toista.

Ymmärrän, että se näyttää suoraviivaiselta ajatukselta, mutta ymmärrän, että on monia tapoja, joilla ihmisten korvaaminen tekoälyllä voi helposti mennä pieleen. Monet yritykset olivat innokkaita ryhtymään tällaisiin toimenpiteisiin eivätkä pohtineet tietoisesti, miten se tekisi. Tämän seurauksena he tekivät usein paljon pahemman sotkun kuin heillä oli aluksi.

Haluan selventää ja korostaa, että tekoäly ei ole ihmelääke.

Siitä puheen ollen, on yksi valtava ongelma siinä, miten puhtaus näennäisesti heittää ihmispuoliset päättäjät pois väitetysti puolueettomalla tekoälyllä. Ongelmana on, että saatat vain korvata yhden joukon epäsuotuisia ennakkoluuloja toisilla. Aiemman ohjeen mukaan tekoäly voi sisältää epäsuotuisia harhoja ja voi toimia näiden harhojen perusteella. Röyhkeä oletus, jonka mukaan puolueellisten ihmisten vaihtaminen puolueettomaan tekoälyyn, ei ole kaikki, mitä se on murskattu.

Lyhyesti sanottuna, tässä on sopimus, kun tarkastellaan asiaa tiukasti harhatekijöiden perusteella:

  • Tekoälyssä ei ole epäsuotuisia ennakkoluuloja, joten tekoälypohjainen ADM on kätevä ottaa käyttöön
  • Tekoälyllä on samat epäsuotuisat ennakkoluulot kuin korvatuilla ihmisillä, ja siksi tekoälyyn perustuva ADM on huolestuttava
  • Tekoäly tuo uusia epämiellyttäviä ennakkoluuloja kuin korvattujen ihmisten omat ja todennäköisesti pahentaa asioita vastaavasti
  • Tekoäly näyttää aluksi hyvältä, ja sitten vähitellen heiluu epäsuotuisiksi harhoiksi
  • Muut

Voimme avata lyhyesti nämä mahdollisuudet.

Ensimmäinen on idealisoitu versio siitä, mitä voi tapahtua. Tekoälyssä ei ole epäsuotuisia ennakkoluuloja. Asetat tekoälyn paikoilleen ja se tekee työn erinomaisesti. Hyvä sinulle! Tietysti voisi toivoa, että olette jollain taitavasti hoitaneet myös tekoälyn mukanaan tuoman työvoiman siirtymisen.

Toisessa tapauksessa asetat tekoälyn paikalleen ja huomaat, että tekoäly osoittaa samoja epäsuotuisia ennakkoluuloja kuin ihmistyöntekijöillä. Miten tämä voi olla? Yleinen tapa pudota tähän ansaan on käyttää koneoppimista (ML) ja syväoppimista (DL), jotka perustuvat kerättyihin tietoihin siitä, kuinka roolissa olleet ihmiset tekivät aiemmin päätöksiään.

Anna minun selittää hetki.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata, mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet työtä vuosia vuosien ajan, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Machine Learning- tai Deep Learning -laskentamallin täsmäytys yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Mallinnuksessa sinänsä ei ole ilmeistä tervettä järkeä tai muita tuntevia puolia.

Lisäksi tekoälyn kehittäjät eivät ehkä ymmärrä, mitä on tekeillä. Arkaaninen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä se saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n kuvioiden yhteensopivuusmalleissa on edelleen vääristymiä.

Kaiken kaikkiaan saatat päätyä takaisin alkutilaan. Samat ihmisten epäsuotuisat ennakkoluulot näkyvät nyt laskennallisesti tekoälyjärjestelmässä. Et ole poistanut ennakkoluuloja.

Vielä pahempaa on, että saatat epätodennäköisemmin ymmärtää, että tekoälyssä on ennakkoluuloja. Ihmisten tapauksessa saatat yleensä olla varuillasi, että ihmisillä on epäsuotuisia ennakkoluuloja. Tämä on perustavanlaatuinen odotus. Tekoälyn käyttö voi tuudittaa johtajat uskomaan, että automaatio on poistanut kokonaan kaikenlaiset inhimilliset ennakkoluulot. Näin he asettuvat ampuneensa itseään jalkaan. He pääsivät eroon ihmisistä, joilla oli näennäisesti tunnettuja epäsuotuisia ennakkoluuloja, ja ne korvattiin tekoälyllä, jolla ei uskottu olevan tällaisia ​​ennakkoluuloja, ja silti ne ovat nyt ottaneet käyttöön tekoälyn, joka on täynnä samoja, joiden tiedetään olevan olemassa.

Tämä voi saada asiat todella ristiin. Olet ehkä poistanut muut ihmistyöntekijöiden kanssa käytetyt suojakaiteet, jotka on perustettu havaitsemaan ja estämään jo ennakoituja inhimillisiä harhaoppeja. Tekoälyllä on nyt vapaat kädet. Mikään ei ole paikallaan saadakseen sen kiinni ennen kuin toimitaan. Tekoäly voisi sitten alkaa ohjata sinua alas rajulle polulle, jossa on paljon puolueellisia toimia.

Ja olet kiusallisessa ja kenties vastuullisessa asennossa, jonka tiesit kerran ennakkoluuloista ja olet nyt antanut näiden ennakkoluulojen aiheuttaa tuhoa. On ehkä yksi asia, ettet ole koskaan törmännyt tällaisiin epäsuotuisiin ennakkoluuloihin, ja sitten yhtäkkiä tekoäly saa ne esiin. Voit yrittää perustella tätä "kuka olisi arvannut" -tyyppisellä häiriötekijällä (ei ehkä kovin vakuuttavasti). Mutta jos olet nyt asettanut tekoälyn, joka tekee samoja epäsuotuisia puolueellisia toimia kuin ennenkin, tekosyysi ovat yhä ohuempia ja himmeämpiä.

Tämän käänteen vuoksi tekoäly osoittaa epäsuotuisia harhoja, joita ei ollut aiemmin tavattu ihmisten tehdessä tehtävää. Voisi sanoa, että tätä on ehkä vaikeampi estää, koska se koostuu "uusista" harhoista, joita yritys ei ollut aiemmin etsinyt. Lopulta tekosyyt eivät kuitenkaan välttämättä tarjoa sinulle paljon helpotusta. Jos tekoälyjärjestelmä on uskaltanut sekä epäeettiselle että laittomalle alueelle, hanhisi saattaa olla kypsä.

Toinen huomioitava näkökohta on se, että tekoäly saattaa alkaa hienosti ja tunkeutua sitten epäsuotuisaan harhaan. Tämä on erityisen todennäköistä, kun koneoppimista tai syväoppimista käytetään jatkuvasti tekoälyn pitämiseksi ajan tasalla. Toimiipa ML/DL reaaliajassa tai päivittää ajoittain, on kiinnitettävä huomiota siihen, käyttääkö tekoäly mahdollisesti tietoja, jotka sisältävät nyt vääristymiä ja joita ei aiemmin ollut.

Johtajat, jotka luulevat saavansa ilmaisen lounaan heiluttaen taikasauvaa korvatakseen puolueelliset ihmistyöntekijät tekoälyllä, odottavat erittäin töykeää heräämistä. Katso keskusteluni johtajien voimaannuttamisen tärkeydestä tekoälyn etiikan ohjeilla osoitteessa linkki tähän.

Tämän keskustelun tässä vaiheessa lyön vetoa, että kaipaat joitakin tosielämän esimerkkejä, jotka saattavat tuoda esiin hämmennyksen, joka liittyy ihmisten epäsuotuisten ennakkoluulojen korvaamiseen (tai ei) tekoälyyn perustuvilla epäsuotuisilla harhoilla.

Olen iloinen, että kysyit.

On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo jotain tekoälyn epäsuotuisista ennakkoluuloista, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, että tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä aitoa itse ajavaa autoa, jota emme vielä edes tiedä, onko tämä mahdollista saavuttaa ja kuinka kauan sen saavuttaminen vie.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoäly, joissa on epäsuotuisia ennakkoluuloja

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Luotan siihen, että se tarjoaa riittävän litanian varoituksia, jotka tukevat sitä, mitä aion kertoa.

Olemme nyt valmiita sukeltamaan syvälle itseohjautuviin autoihin ja eettisiin tekoälymahdollisuuksiin, joihin liittyy tekoälyn ja epäsuotuisten ennakkoluulojen tutkiminen.

Käytetään helposti suoraviivaista esimerkkiä. Tekoälypohjainen itseajava auto on käynnissä naapurustosi kaduilla ja näyttää ajavan turvallisesti. Aluksi olit kiinnittänyt erityistä huomiota jokaiseen kertaan, kun onnistuit näkemään vilauksen itseohjautuvasta autosta. Autonominen ajoneuvo erottui joukosta elektronisilla antureilla, jotka sisälsivät videokameroita, tutkayksiköitä, LIDAR-laitteita ja vastaavia. Useiden viikkojen itseohjautuvan auton risteilyn jälkeen paikkakunnallasi et enää huomaa sitä. Sinun mielestäsi se on vain toinen auto jo ennestään vilkkaalla yleisellä tiellä.

Jotta ei luulisi olevan mahdotonta tai epätodennäköistä tutustua itseohjautuvien autojen näkemiseen, olen kirjoittanut usein siitä, kuinka itseohjautuvien autojen kokeilujen piirissä olevat paikkakunnat ovat vähitellen tottuneet näkemään koristeltuja ajoneuvoja, katso analyysini osoitteessa tämä linkki täällä. Monet paikalliset siirtyivät lopulta suuhunsa ammottavasta ihastuttavasta haukotuksesta nyt levittävään tylsyyden haukotteluun nähdäkseen kiemurtelevia itseohjautuvia autoja.

Todennäköisesti suurin syy tällä hetkellä siihen, että he saattavat huomata autonomiset ajoneuvot, johtuu ärsytys- ja kiihtyvyystekijästä. Tekoälyjärjestelmät varmistavat, että autot noudattavat kaikkia nopeusrajoituksia ja liikennesääntöjä. Hektiset ihmiskuljettajat perinteisissä ihmisvetoisissa autoissaan ärsyyntyvät toisinaan, kun jäävät tiukasti lainkuuliaisten tekoälyyn perustuvien itseohjautuvien autojen taakse.

Se on jotain, johon meidän kaikkien on ehkä totuttava, oikeutetusti tai väärin.

Takaisin tarinaamme.

Osoittautuu, että muutoin vaarattomista ja yleisesti tervetulleista tekoälypohjaisista itseohjautuvista autoista alkaa nousta kaksi sopimatonta huolta, erityisesti:

a. Tekoäly vaeltaa itseohjautuvilla autoilla kyytiä varten, on tullut ahdistava huolenaihe koko yhteisössä

b. Se, miten tekoäly kohtelee odottavia jalankulkijoita, joilla ei ole etuoikeutta, on myös kasvava ongelma

Aluksi tekoäly vaelsi itseajavissa autoissa koko kaupungissa. Jokaisella, joka halusi pyytää kyytiä itseajavaan autoon, oli periaatteessa yhtäläinen mahdollisuus saada sellainen. Vähitellen tekoäly alkoi ensisijaisesti pitää itseajavat autot liikkumassa vain yhdessä kaupunginosassa. Tämä osio tuotti enemmän rahaa, ja tekoälyjärjestelmä oli ohjelmoitu yrittämään maksimoida tulot osana käyttöä yhteisössä.

Kaupungin köyhien osien yhteisön jäsenet eivät pystyneet saamaan kyytiä itseajavalta autolta. Tämä johtui siitä, että itseajavat autot olivat kauempana ja vaelsivat alueen korkeamman tulotason osassa. Kun pyyntö saapui kaukaisesta kaupunginosasta, kaikki pyynnöt lähemmästä paikasta, joka oli todennäköisesti "arvostetussa" kaupunginosassa, saivat korkeamman prioriteetin. Lopulta itseohjautuvan auton saatavuus muualta kuin kaupungin rikkaimmasta osasta oli lähes mahdotonta, mikä oli raivostuttavaa niille, jotka asuivat nykyisillä luonnonvarojen nälkäisillä alueilla.

Voisit väittää, että tekoäly joutui melko pitkälle välityssyrjinnän muotoon (kutsutaan usein myös epäsuoraksi syrjinnäksi). Tekoälyä ei ohjelmoitu välttämään näitä köyhempiä kaupunginosia. Sen sijaan se "oppii" tekemään niin ML/DL:n avulla.

Asia on siinä, että kyytiauton kuljettajat tunnettiin tekevänsä samaa, vaikkakaan ei välttämättä pelkästään rahantekokulman vuoksi. Joillakin kyydissä olevista ihmiskuljettajista oli epäsuotuisa ennakkoluulo ratsastajien poimimisessa tietyistä kaupungin osista. Tämä oli jokseenkin tunnettu ilmiö, ja kaupunki oli ottanut käyttöön valvontamenetelmän saadakseen kiinni ihmiskuljettajista. Ihmiskuljettajat voivat joutua vaikeuksiin suorittaessaan epämiellyttäviä valintakäytäntöjä.

Oletuksena oli, että tekoäly ei koskaan putoaisi samanlaiseen juoksevaan hiekkaan. Mitään erityistä valvontaa ei perustettu, jotta voitaisiin seurata, minne tekoälypohjaiset itseajavat autot olivat menossa. Vasta kun yhteisön jäsenet alkoivat valittaa, kaupungin johtajat ymmärsivät, mitä oli tapahtumassa. Lisätietoja tämän tyyppisistä kaupunginlaajuisista ongelmista, joita autonomiset ajoneuvot ja itseohjautuvat autot aikovat esitellä, katso kattavuus osoitteessa tämä linkki täällä ja joka kuvaa Harvardin johtamaa tutkimusta, jonka olen kirjoittanut aiheesta.

Tämä esimerkki tekoälypohjaisten itseohjautuvien autojen roaming-näkökohdista havainnollistaa aiempaa osoitusta siitä, että voi olla tilanteita, joissa ihmisillä on epätoivottuja ennakkoluuloja, joita varten on otettu käyttöön valvontaa ja että nämä ihmiskuljettajat korvaava tekoäly jää skotlantiin. vapaa. Valitettavasti tekoäly voi vähitellen juuttua samankaltaisiin harhaan ja tehdä niin ilman riittäviä suojakaiteita.

Toisessa esimerkissä tekoäly määrittää, pysähtyykö odottaville jalankulkijoille, joilla ei ole etuoikeutta ylittää katu.

Olet epäilemättä ajanut ja törmännyt jalankulkijoihin, jotka odottavat kadun ylittämistä, mutta heillä ei kuitenkaan ollut etuoikeutta tehdä niin. Tämä tarkoitti sitä, että sinulla oli harkintavaltaa päättää, pysähdytkö ja annatko heidän ylittää. Voit edetä päästämättä heidän ylittää ja noudattaa silti täysin laillisia ajosääntöjä.

Tutkimukset siitä, kuinka ihmiskuljettajat päättävät pysähtyä tai olla pysähtymättä tällaisten jalankulkijoiden puolesta, ovat osoittaneet, että joskus ihmiskuljettajat tekevät valinnan epäsuotuisten ennakkoluulojen perusteella. Ihmiskuljettaja saattaa katsoa jalankulkijaa ja päättää olla pysähtymättä, vaikka hän olisi pysähtynyt, jos jalankulkija olisi ollut ulkonäöltään erilainen, esimerkiksi rodun tai sukupuolen perusteella. Olen tutkinut tätä klo linkki tähän.

Kuvittele, että tekoälyyn perustuvat itseohjautuvat autot on ohjelmoitu käsittelemään kysymystä siitä, pysähtyäkö vai ei jalankulkijoille, joilla ei ole etuoikeutta. Näin tekoälyn kehittäjät päättivät ohjelmoida tämän tehtävän. He keräsivät tietoja kaupungin videokameroista, joita on sijoitettu ympäri kaupunkia. Aineisto esittelee ihmiskuljettajia, jotka pysähtyvät jalankulkijoille, joilla ei ole etuoikeutta, ja ihmiskuljettajia, jotka eivät pysähdy. Se kaikki on koottu suureksi tietojoukoksi.

Koneoppimisen ja Deep Learningin avulla tiedot mallinnetaan laskennallisesti. AI-ajojärjestelmä käyttää sitten tätä mallia päättääkseen, milloin pysähtyä tai olla pysähtymättä. Yleisesti ajatus on, että riippumatta siitä, mistä paikallinen tapa koostuu, näin tekoäly ohjaa itse ajavaa autoa.

Kaupungin johtajien ja asukkaiden yllätykseksi tekoäly ilmeisesti päätti pysähtyä tai olla pysähtymättä jalankulkijan ulkonäön perusteella, mukaan lukien rodun ja sukupuolen perusteella. Itseajavan auton anturit skannasivat odottavan jalankulkijan, syöttäisivät nämä tiedot ML/DL-malliin ja malli lähettäisi tekoälylle, pysähtyykö vai jatkaako se. Valitettavasti kaupungissa oli jo paljon inhimillistä kuljettajaa tässä suhteessa, ja tekoäly matki nyt samaa.

Hyvä uutinen on, että tämä herättää ongelman, jonka olemassaolosta lähes kukaan ei ollut aiemmin tiennyt. Huono uutinen oli, että koska tekoäly jäi kiinni tekemästä tätä, se sai suurimman syyn. Tämä esimerkki havainnollistaa, että tekoälyjärjestelmä saattaa vain kopioida jo olemassa olevia ihmisten epäsuotuisia ennakkoluuloja.

Yhteenveto

On monia tapoja yrittää välttää suunnittelemasta tekoälyä, jossa joko ulos portista on epäsuotuisia ennakkoluuloja tai joka ajan mittaan poimii ennakkoluuloja. Yksi lähestymistapa on varmistaa, että tekoälykehittäjät ovat tietoisia tästä tapahtumasta ja pitävät heidät siksi varpaillaan ohjelmoimaan tekoäly estämään asian. Toinen keino on se, että tekoäly itse valvoo itse epäeettistä käyttäytymistä (katso keskusteluni osoitteessa linkki tähän) ja/tai jolla on toinen tekoäly, joka tarkkailee muita tekoälyjärjestelmiä mahdollisesti epäeettisen käyttäytymisen varalta (olen käsitellyt tätä osoitteessa linkki tähän).

Yhteenvetona meidän on ymmärrettävä, että ihmisillä voi olla epäsuotuisia ennakkoluuloja ja että heidän on jotenkin tiedettävä rajoituksensa. Samoin tekoälyssä voi olla epäsuotuisia ennakkoluuloja, ja jotenkin meidän on tiedettävä niiden rajoitukset.

Niille teistä, jotka innokkaasti omaksuvat tekoälyn etiikkaa, haluaisin lopettaa heti toiseen kuuluisaan linjaan, joka kaikkien on jo tiedettävä. Eli jatkakaa eettisen tekoälyn käyttöä ja jakamista sen tärkeydestä. Ja tekemällä niin sanoisin röyhkeästi tämän: "Mene eteenpäin, piristä päivääni."

Lähde: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/