Tekoälyn etiikka ja tekoälylaki ovat siirtymässä kohti standardeja, jotka nimenomaisesti tunnistavat ja hallitsevat tekoälyn harhaa

Oletko koskaan pelannut viisikymmentäkaksi kortin noutoa?

Se ei ole peli, johon tavallisesti osallistuisit mielellään. Tässä on syy. Joku tarjoaa sinulle, että se on väitetysti hauska urheilulaji, ja jos otat makean syötin, he heittävät kokonaisen pelikorttipakan ilmaan ja tiivistettynä lattialle. Sitten henkilö hymyilee röyhkeästi ja käskee sinua hakemaan kortit. Siinä koko peli.

Kujeilija!

Minulla on hieman ajattelevainen kysymys esitettävänä sinulle tästä.

Oletetaan, että yksi korteista liukastui läheisen sohvan alle. Kun olit poiminut kaikki kortit, tiedät, että yksi puuttuu, koska kädessäsi olisi vain viisikymmentäyksi.

Kysymys kuuluu, voitko määrittää, mikä kortti puuttui?

Olen varma, että sanoisit heti, että saat helposti selville, mikä kortti ei ollut käsissäsi. Sinun tarvitsee vain laittaa kansi kuntoon. Tiedät, että vakiopakka koostuu neljästä maasta ja että jokaisessa maassa kortit on numeroitu yhdestä kymmeneen ja sitten Jack, Queen ja King.

Tiedät tämän, koska tavallinen pelikorttipakka perustuu standardiin.

Oho, tuo lausunto saattaa tuntua yhdeltä niistä täysin ilmeisistä väitteistä. No, kyllä, tietysti, tavallinen pelipakka perustuu standardiin. Me kaikki tiedämme sen. Tarkoitukseni on, että kun meillä on standardi, voimme luottaa siihen tarvittaessa. Sen lisäksi, että pystyt päättelemään, mikä kortti pakasta puuttuu, voit myös helposti pelata miljardeja tunnettuja korttipelejä muiden ihmisten kanssa. Kun jollekin on kerrottu pelin säännöt, hän pystyy pelaamaan suoraan, koska hän tietää jo täysin, mistä pakka koostuu. Sinun ei tarvitse selittää heille, että pakassa on neljä maata ja eri numeroituja kortteja. He tietävät jo, että näin on.

Minne olen menossa tällä?

Yritän viedä sinut polulle, joka on elintärkeä keino edistyä tekoälyn ja erityisesti tekoälyn etiikan ja eettisen tekoälyn alalla. Näetkö, meidän on yritettävä keksiä laajalle levinneitä ja yleisesti hyväksyttyjä tekoälyn etiikkaa koskevia standardeja. Jos voimme tehdä niin, se helpottaa eettisen tekoälyn käyttöönottoa ja pyrkii todistetusti parantamaan tekoälyjärjestelmiä, jotka joutuvat jatkuvasti markkinoille (kuten numeroimaton ja järjestämätön villikorttipakka). Katso jatkuvasta ja laajasta kattauksestani tekoälyn etiikkaan, eettiseen tekoälyyn ja tekoälylakiin linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Eräs tietty AI Ethics -segmentti tai osa, joka on saanut paljon mediahuomiota, koostuu tekoälystä, jossa on epäsuotuisia ennakkoluuloja ja epätasa-arvoa. Saatat olla tietoinen siitä, että kun uusin tekoälyn aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Paitsi äänekäs juridinen väärinkäytösten hillitsemiseen tähtäävät pyrkimykset omaksua tekoälyn etiikka tekoälyn ilkeyden korjaamiseksi. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Tähän liittyvään ajatukseen, kannatan tekoälyn käyttämistä osana tekoälyongelmien ratkaisua ja tulen torjumista tulella tällä ajattelutavalla. Voisimme esimerkiksi upottaa eettisiä tekoälykomponentteja tekoälyjärjestelmään, joka valvoo, kuinka muu AI tekee asioita ja saa siten mahdollisesti kiinni reaaliajassa kaikki syrjivät toimet, katso keskusteluni osoitteessa linkki tähän. Meillä voisi olla myös erillinen tekoälyjärjestelmä, joka toimii eräänlaisena AI Ethics -monitorina. Tekoälyjärjestelmä toimii valvojana, joka seuraa ja havaitsee, kun toinen tekoäly on menossa epäeettiseen kuiluun (katso analyysini tällaisista ominaisuuksista linkki tähän).

Hetken kuluttua kerron teille joitain tekoälyn etiikan taustalla olevia yleisiä periaatteita. Tällaisia ​​listoja kelluu siellä täällä paljon. Voisi sanoa, että ei ole vielä olemassa yksittäistä luetteloa yleismaailmallisesta vetovoimasta ja yhteisymmärryksestä. Se on ikävä uutinen. Hyvä uutinen on, että ainakin AI Ethics -luetteloita on helposti saatavilla ja ne ovat yleensä melko samanlaisia. Kaiken kaikkiaan tämä viittaa siihen, että eräänlaisen perustellun lähentymisen avulla löydämme tiemme kohti yleistä yhteneväisyyttä siitä, mistä tekoälyn etiikka koostuu.

Otan tämän esille tarjotakseni perustan tässä keskustelulleni, joka keskittyy tiettyyn segmenttiin tai osaan laajemmasta tekoälyn etiikan alueesta, nimittäin, kuten aiemmin mainittiin, tekoälyn harhaan liittyviin erityispiirteisiin. Myös syy, miksi jaan tämän aiheen kanssasi, on se, että National Institute of Standards and Technologyn (NIST) julkaisema asiakirja yrittää saada meidät pääsemään kohti standardia, joka kuvaa tekoälyn harhaa. Asiakirja on oikeutettu Kohti standardia tekoälyn harhan tunnistamiseen ja hallitsemiseen kirjoittajat Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt ja Patrick Hall, ja sen julkaisi US Department of Commerce, NIST Special Publication 1270, maaliskuussa 2022.

Puramme tämän kätevän ja rohkaisevan ponnistelun selvittääksemme, mitä tarkoitamme tekoälyharhoilla. Vanha sanonta on, että et voi hallita sitä, mitä et voi mitata. Kun sinulla on standardi, jossa esitetään erilaisia ​​tekoälypoikkeamia, voit alkaa mitata ja hallita tekoälypoikkeamien vitsausta.

Käydään ensin lyhyesti läpi joitakin yleisiä eettisiä tekoälyohjeita havainnollistaaksemme, minkä pitäisi olla olennaista jokaiselle tekoälyä luovalle, harjoittelevalle tai käyttävälle.

Esimerkiksi, kuten Vatikaani totesi Rooma kutsu tekoälyn etiikkaan ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän tunnistamansa kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Monien näiden keskeisten tekoälyn eettisten ohjeiden taustalla on tekoälyn harhaottelun salakavala luonne.

Aivan kuten korttipakassa, olisi varmasti hienoa, jos voisimme jotenkin ryhmitellä tekoälypoikkeamat joukoksi "pukuja" tai luokkia. Todellakin, NIST-dokumentti tarjoaa ehdotetun ryhmittelyn.

Kolmea pääluokkaa ehdotetaan:

1) Systeemiset harhat

2) Tilastolliset ja laskennalliset harhat

3) Inhimilliset ennakkoluulot

On varmasti harkittava, sopivatko kaikki tekoälypoikkeamat siististi johonkin näistä kolmesta kategoriasta. Voit varmasti väittää, että jotkin tekoälypoikkeamat kuuluvat yhteen, kahteen tai kaikkiin kolmeen luokkaan samanaikaisesti. Lisäksi saatat väittää, että useampia luokkia ansaitsee mainita, kuten neljäs, viides, kuudes tai useampi ryhmittelysarja.

Toivon, että ajattelet sitä, koska meidän on saatava kaikki mukaan näiden standardien muotoiluun. Jos olet närkästynyt tavasta, jolla nämä standardit ensin muotoutuvat, kehotan teitä kääntämään tuon energian auttamaan meitä muita tekemään noista nousevista standardeista niin vankat ja täydelliset kuin ne voidaan kaivertaa.

Toistaiseksi voimme tarkastella lähemmin ehdotettuja kolmea luokkaa ja nähdä, millainen käsi meillä on tähän mennessä käsitelty (kyllä, aion jatkossakin käyttää analogiaa pelikorttipakkaan, tehden niin koko tämän kirjoitetun kappaleen ajan voit lyödä vetoa alimmasta dollaristasi teeman ei niin piilossa olevalle ässälle).

Mitä tarkoitetaan viittaamalla systeemiseen harhaan?

Näin sanotaan NIST-asiakirjassa: "Systeemiset ennakkoluulot johtuvat tiettyjen instituutioiden menettelyistä ja käytännöistä, jotka toimivat tavoilla, jotka johtavat siihen, että tietyt sosiaaliset ryhmät ovat etuoikeutettuja tai suosimia ja toisia epäedullisia tai aliarvostettuja. Tämän ei tarvitse olla seurausta tietoisesta ennakkoluulosta tai syrjinnästä, vaan pikemminkin siitä, että enemmistö noudattaa olemassa olevia sääntöjä tai normeja. Institutionaalinen rasismi ja seksismi ovat yleisimmät esimerkit” (huomaa, että tämä on vain lyhyt ote ja lukijoita kehotetaan näkemään täydellisempi selitys).

Tekoäly tulee osaksi systeemisiä harhoja tarjoamalla keinon välittää ja soveltaa näitä harhoja tekoälypohjaisissa sovelluksissa. Aina kun käytät tekoälyllä varustettua ohjelmistoa, se saattaa sisältää joukon ennakkoluuloja, jotka ovat jo syntyneet järjestelmään tekoälyn tekemiseen johtaneiden yritysten ja alan käytäntöjen kautta. NIST-tutkimuksen mukaan: "Nämä vääristymät esiintyvät tekoälyssä käytetyissä tietoaineistoissa sekä institutionaalisissa normeissa, käytännöissä ja prosesseissa koko tekoälyn elinkaaren ajan ja laajemmassa kulttuurissa ja yhteiskunnassa."

Harkitse seuraavaksi harhajoukkoa, joka on merkitty tilastollisiksi ja laskennallisiksi harhoiksi.

NIST-dokumentissa todetaan seuraavaa: ”Tilastolliset ja laskennalliset harhat johtuvat virheistä, joita syntyy, kun otos ei edusta populaatiota. Nämä harhat johtuvat systemaattisesta eikä satunnaisesta virheestä, ja niitä voi esiintyä ilman ennakkoluuloja, puolueellisuutta tai syrjivää tarkoitusta. Tekoälyjärjestelmissä näitä harhoja esiintyy tietojoukoissa ja algoritmisissä prosesseissa, joita käytetään tekoälysovellusten kehittämisessä, ja niitä syntyy usein, kun algoritmeja koulutetaan yhden tyyppiselle datalle, eivätkä ne voi ekstrapoloida näitä tietoja pidemmälle.

Tämän tyyppinen tilastollinen ja laskennallinen harha on usein keitetty tekoälyjärjestelmään, joka käyttää koneoppimista (ML) ja syvää oppimista (DL). Nykyajan ML/DL:n raskaan asian esille ottaminen edellyttää liittyvän sivutangentin siitä, mitä tekoäly on ja mitä ML/DL on.

Varmistetaan, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluamme villisti spekuloida tunteva AI, tämä keskustelu voisi mennä radikaalisti eri suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (superälykkään tekoälyn mahdollisuudesta tutkimisestani, katso ks. kattavuus täällä).

Pidetään asiat maanläheisemmin ja harkitaan nykypäivän laskennallista tuntematonta tekoälyä.

Ymmärrä, että tämän päivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista ja syväoppimista, jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Tämä vie meidät suoraan kolmanteen luokkaan NIST-joukossa, jossa on kolme ryhmitystä, erityisesti ihmisen harhaanjohtamisen rooli tekoälyn harhaan syntymisessä. Tässä on mitä NIST-dokumentti osoitti: "Ihmisen ennakkoluulot heijastavat systemaattisia virheitä ihmisen ajattelussa, jotka perustuvat rajoitettuun määrään heuristisia periaatteita ja ennustearvoja yksinkertaisemmille tuomitseville operaatioille. Nämä harhat ovat usein implisiittisiä ja liittyvät yleensä siihen, miten yksilö tai ryhmä näkee tiedon (kuten automaattisen tekoälytulostuksen) tehdäkseen päätöksen tai täyttääkseen puuttuvia tai tuntemattomia tietoja. Nämä harhat ovat kaikkialla läsnä institutionaalisissa, ryhmissä ja yksittäisissä päätöksentekoprosesseissa koko tekoälyn elinkaaren ajan sekä tekoälysovellusten käytössä, kun ne on otettu käyttöön."

Olet nyt saanut nopean johdannon kolmeen kategoriaan.

Haluaisin jakaa kanssasi lisää ajatuksia, kuten NIST-asiakirjassa ilmaistaan. Heidän kertomuksessaan oleva kaavio tarjoaa hyödyllisen yhteenvedon keskeisistä kysymyksistä ja huomioista, jotka ovat kaikkien kolmen tekoälyn harhajoukon taustalla. Listaan ​​ne tähän viitteesi ja koulutuksen vuoksi.

#1: Systeemiset harhat

  • Ketä lasketaan ja ketä ei lasketa?

— Piileviin muuttujiin liittyvät ongelmat

— Syrjäytyneiden ryhmien aliedustus

— Eriarvoisuuksien automatisointi

— Aliedustus hyödyllisyysfunktion määrittämisessä

— Prosessit, jotka suosivat enemmistöä/vähemmistöä

— Kulttuurinen harha tavoitefunktiossa (paras yksilöille vs. paras ryhmälle)

  • Mistä tiedämme mikä on oikein?

— Epätasa-arvon vahvistaminen (tekoälyn lisääntynyt käyttö vaikuttaa ryhmiin enemmän)

— Ennakoiva poliisitoiminta vaikuttaa negatiivisemmin

— Yhteisautojen/itse ajavien autojen/ jne. yleistyminen. voivat muuttaa käytäntöjä, jotka vaikuttavat väestöön käytön perusteella

#2: Tilastolliset ja laskennalliset harhat

  • Ketä lasketaan ja ketä ei lasketa?

— Näytteenotto- ja valintaharha

— Välitysmuuttujien käyttäminen, koska niitä on helpompi mitata

— Automaatioharha

— Likert-asteikko (kategoriasta järjestysluvusta kardinaaliin)

- Epälineaarinen vs lineaarinen

– Ekologinen virhe

— L1 vs. L2 normin minimoiminen

— Yleiset vaikeudet määrittää kontekstuaalisia ilmiöitä määrällisesti

  • Mistä tiedämme mikä on oikein?

— Riittävän ristiinvalidoinnin puute

— Selviytymisharha

– Vaikeus oikeudenmukaisuuden kanssa

#3: Ihmisen ennakkoluulot

  • Ketä lasketaan ja ketä ei lasketa?

— Havaintoharha (katuvaloefekti)

— Saatavuusharha (ankkurointi)

- McNamara virhe

— Ryhmäajattelu johtaa kapeisiin valintoihin

— Rashomon-ilmiö johtaa subjektiiviseen vaikuttamiseen

— Tavoitteiden kvantifiointivaikeudet voivat johtaa McNamaran harhaan

  • Mistä tiedämme mikä on oikein?

— Vahvistusharha

— Automaatioharha

Tämän painavan keskustelun tässä vaiheessa lyön vetoa, että kaipaat havainnollistavia esimerkkejä, jotka voisivat esitellä kolmea tekoälyn harhaluokkaa. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jokseenkin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo jotain kolmesta ehdotetusta tekoälyluokasta, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoälyharha

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Luotan siihen, että se tarjoaa riittävän litanian varoituksia, jotka tukevat sitä, mitä aion kertoa.

Olemme nyt valmiita sukeltamaan syvälle itseohjautuviin autoihin ja eettisiin tekoälymahdollisuuksiin, jotka sisältävät kolme tekoälyn luokkaa.

Kuvittele, että tekoälypohjainen itseajava auto on käynnissä naapurustosi kaduilla ja näyttää ajavan turvallisesti. Aluksi olit kiinnittänyt erityistä huomiota jokaiseen kertaan, kun onnistuit näkemään vilauksen itseohjautuvasta autosta. Autonominen ajoneuvo erottui joukosta elektronisilla antureilla, jotka sisälsivät videokameroita, tutkayksiköitä, LIDAR-laitteita ja vastaavia. Useiden viikkojen itseohjautuvan auton risteilyn jälkeen paikkakunnallasi et enää huomaa sitä. Sinun mielestäsi se on vain toinen auto jo ennestään vilkkaalla yleisellä tiellä.

Jotta ei luulisi olevan mahdotonta tai epätodennäköistä tutustua itseohjautuvien autojen näkemiseen, olen kirjoittanut usein siitä, kuinka itseohjautuvien autojen kokeilujen piirissä olevat paikkakunnat ovat vähitellen tottuneet näkemään koristeltuja ajoneuvoja, katso analyysini osoitteessa tämä linkki täällä. Monet paikalliset siirtyivät lopulta suuhunsa ammottavasta ihastuttavasta haukotuksesta nyt levittävään tylsyyden haukotteluun nähdäkseen kiemurtelevia itseohjautuvia autoja.

Todennäköisesti suurin syy tällä hetkellä siihen, että he saattavat huomata autonomiset ajoneuvot, johtuu ärsytys- ja kiihtyvyystekijästä. Tekoälyjärjestelmät varmistavat, että autot noudattavat kaikkia nopeusrajoituksia ja liikennesääntöjä. Hektiset ihmiskuljettajat perinteisissä ihmisvetoisissa autoissaan ärsyyntyvät toisinaan, kun jäävät tiukasti lainkuuliaisten tekoälyyn perustuvien itseohjautuvien autojen taakse.

Se on jotain, johon meidän kaikkien on ehkä totuttava, oikeutetusti tai väärin.

Takaisin tarinaamme.

Pohditaan seuraavaksi, kuinka systeemiset ennakkoluulot voivat vaikuttaa tässä itseajavien autojen yhteydessä.

Jotkut asiantuntijat ovat erittäin huolissaan siitä, että itseajavat autot ovat vain varakkaiden ja eliittien maakunta. Saattaa olla, että itseajavien autojen käyttökustannukset ovat kohtuuttoman kalliita. Ellei sinulla ole suuria summia, et ehkä koskaan näe itse ajavan auton sisäpuolta. Niiden, jotka käyttävät itseajavia autoja, on oltava rikkaita, väitetään.

Sellaisenaan jotkut hämmentävästi kehottavat, että tekoälypohjaisten itseohjautuvien autojen tulo läpäisee jonkinlaisen systeemisen ennakkoluulon. Yleinen autonominen ajoneuvoteollisuusjärjestelmä kokonaisuutena pitää itseajavat autot poissa köyhien tai vähemmän varakkaiden käsistä. Tämä ei välttämättä johdu ilmeisestä tarkoituksesta, ja vain käy ilmi, että ainoa uskottu tapa saada takaisin itseajavien autojen keksimisestä aiheutuvat raskaita kustannuksia on periä törkeän korkeita hintoja.

Jos vastaat siihen, että nykyään on näitä itseohjautuvien autojen kokeiluja, jotka antavat arkipäivän käyttää, joten näyttää ilmeiseltä, että sinun ei tarvitse olla sinänsä rikas, vasta-argumentti on, että tämä on eräänlainen kuoripeli. se oli. Autonvalmistajien ja itseohjautuvien teknologiayritysten oletetaan olevan valmiita näyttämään siltä, ​​että kustannukset eivät ole olennainen este. He tekevät tämän PR-tarkoituksiin juuri nyt ja nostavat hintoja, kun he saavat selville ryppyjä. Salaliittolainen saattaa jopa väittää, että "marsuja" arkipäiväisinä ihmisinä käytetään haitallisesti, jotta rikkaat lopulta rikastuisivat.

Joten kun otetaan huomioon tuo melko kiistanalainen asia ja laitan omat kaksi senttiäni tähän surkeaan aiheeseen, en usko, että itseajavat autot ylihinnoitettaisiin jokapäiväisessä käytössä. En mene tässä yksityiskohtiin koskien perustettani tällaiselle väitteelle ja kutsun sinut katsomaan tietoisia keskustelujani osoitteessa linkki tähän ja myös linkki tähän.

Jatketaan, voimme seuraavaksi tarkastella tekoälyyn liittyviä tilastollisia ja laskennallisia harhoja.

Mieti näennäisen merkityksetöntä kysymystä siitä, missä itseajavat autot vaeltavat hakemaan matkustajia. Tämä tuntuu erittäin viattomalta aiheelta. Käytämme tarinaa kaupungista, jossa on itseohjautuvia autoja, korostaaksemme ehkä yllättävän potentiaalista tekoälyyn liittyvien tilastollisten ja laskennallisten harhojen haamuja.

Aluksi oletetaan, että tekoäly vaelsi itseajavissa autoissa koko kaupungissa. Jokaisella, joka halusi pyytää kyytiä itseajavaan autoon, oli periaatteessa yhtäläinen mahdollisuus saada sellainen. Vähitellen tekoäly alkoi ensisijaisesti pitää itseajavat autot liikkumassa vain yhdessä kaupunginosassa. Tämä osio tuotti enemmän rahaa, ja tekoälyjärjestelmä oli ohjelmoitu yrittämään maksimoida tulot osana käyttöä yhteisössä.

Kaupungin köyhien osien yhteisön jäsenet eivät pystyneet saamaan kyytiä itseajavalta autolta. Tämä johtui siitä, että itseajavat autot olivat kauempana ja vaelsivat alueen korkeamman tulotason osassa. Kun pyyntö saapui kaukaisesta kaupunginosasta, kaikki pyynnöt lähemmästä paikasta, joka oli todennäköisesti "arvostetussa" kaupunginosassa, saivat korkeamman prioriteetin. Lopulta itseohjautuvan auton saatavuus muualta kuin kaupungin rikkaimmasta osasta oli lähes mahdotonta, mikä oli raivostuttavaa niille, jotka asuivat nykyisillä luonnonvarojen nälkäisillä alueilla.

Voisit väittää, että tekoäly joutui melko suurelta osin tilastollisiin ja laskennallisiin harhaan, joka on samanlainen kuin välityspalvelinsyrjintä (kutsutaan usein myös epäsuoraksi syrjinnäksi). Tekoälyä ei ohjelmoitu välttämään näitä köyhempiä kaupunginosia. Sen sijaan se "oppii" tekemään niin ML/DL:n avulla.

Oletettiin, että tekoäly ei koskaan putoaisi sellaiseen häpeälliseen juoksuhiekkaan. Mitään erityistä valvontaa ei perustettu, jotta voitaisiin seurata, minne tekoälypohjaiset itseajavat autot olivat menossa. Vasta kun yhteisön jäsenet alkoivat valittaa, kaupungin johtajat ymmärsivät, mitä oli tapahtumassa. Lisätietoja tämän tyyppisistä kaupunginlaajuisista ongelmista, joita autonomiset ajoneuvot ja itseohjautuvat autot aikovat esitellä, katso kattavuus osoitteessa tämä linkki täällä ja joka kuvaa Harvardin johtamaa tutkimusta, jonka olen kirjoittanut aiheesta.

Tekoälyyn liittyvien inhimillisten ennakkoluulojen kolmannen luokan osalta siirrymme esimerkkiin, jossa tekoäly päättää, pysähtyykö se odottamaan jalankulkijoita, joilla ei ole etuoikeutta ylittää kadun.

Olet epäilemättä ajanut ja törmännyt jalankulkijoihin, jotka odottavat kadun ylittämistä, mutta heillä ei kuitenkaan ollut etuoikeutta tehdä niin. Tämä tarkoitti sitä, että sinulla oli harkintavaltaa päättää, pysähdytkö ja annatko heidän ylittää. Voit edetä päästämättä heidän ylittää ja noudattaa silti täysin laillisia ajosääntöjä.

Tutkimukset siitä, kuinka ihmiskuljettajat päättävät pysähtyä tai olla pysähtymättä tällaisten jalankulkijoiden puolesta, ovat osoittaneet, että joskus ihmiskuljettajat tekevät valinnan epäsuotuisten ennakkoluulojen perusteella. Ihmiskuljettaja saattaa katsoa jalankulkijaa ja päättää olla pysähtymättä, vaikka hän olisi pysähtynyt, jos jalankulkija olisi ollut ulkonäöltään erilainen, esimerkiksi rodun tai sukupuolen perusteella. Olen tutkinut tätä klo linkki tähän.

Kuvittele, että tekoälyyn perustuvat itseohjautuvat autot on ohjelmoitu käsittelemään kysymystä siitä, pysähtyäkö vai ei jalankulkijoille, joilla ei ole etuoikeutta. Näin tekoälyn kehittäjät päättivät ohjelmoida tämän tehtävän. He keräsivät tietoja kaupungin videokameroista, joita on sijoitettu ympäri kaupunkia. Aineisto esittelee ihmiskuljettajia, jotka pysähtyvät jalankulkijoille, joilla ei ole etuoikeutta, ja ihmiskuljettajia, jotka eivät pysähdy. Se kaikki on koottu suureksi tietojoukoksi.

Koneoppimisen ja Deep Learningin avulla tiedot mallinnetaan laskennallisesti. AI-ajojärjestelmä käyttää sitten tätä mallia päättääkseen, milloin pysähtyä tai olla pysähtymättä. Yleisesti ajatus on, että riippumatta siitä, mistä paikallinen tapa koostuu, näin tekoäly ohjaa itse ajavaa autoa.

Kaupungin johtajien ja asukkaiden yllätykseksi tekoäly oli ilmeisesti päättänyt pysähtyä tai olla pysähtymättä jalankulkijan iän perusteella. Miten se saattoi tapahtua?

Kun tarkastellaan lähemmin videota ihmisen kuljettajan harkinnasta, käy ilmi, että monet pysähdyttämistilanteet koskivat jalankulkijoita, joilla oli eläkeläisen kävelykeppi. Ihmiskuljettajat eivät ilmeisesti olleet halukkaita pysähtymään ja päästämään ikääntyneen kadun yli, mikä johtui oletettavasti siitä, että matkaan saattaa kulua aikaa. Jos jalankulkija näytti siltä, ​​että hän pystyi nopeasti pomppaamaan kadun poikki ja minimoimaan kuljettajan odotusajan, kuljettajat pystyivät paremmin päästämään henkilön yli.

Tämä hautautui syvälle tekoälyn ajojärjestelmään. Itseajavan auton anturit skannasivat odottavan jalankulkijan, syöttäisivät nämä tiedot ML/DL-malliin ja malli lähettäisi tekoälylle, pysähtyykö vai jatkaako se. Kaikkia visuaalisia merkkejä siitä, että jalankulkija saattaa ylittää hidas, kuten kävelykepin käyttöä, käytettiin matemaattisesti määrittämään, pitäisikö tekoälyjärjestelmän päästää odottavan jalankulkijan ylittämään vai ei.

Voisi väittää, että tämä oli riippuvainen olemassa olevasta inhimillisestä ennakkoasenteesta.

Yhteenveto

Muutama viimeinen ajatus toistaiseksi.

On olemassa suosittu sanonta, että et voi vaihtaa sinulle jaettavia kortteja, vaan sinun on sen sijaan opittava pelaamaan riittävästi millä tahansa kädellä, joka sinulle on annettu.

Tekoälyharhojen tapauksessa, jos emme kiihkeästi ryhdy luomaan tekoälyn etiikkaa kauttaaltaan ja erityisesti vahvista tekoälypoikkeamien luonnehdintaa, käsissämme, joita kohtaamme, tulee olemaan täynnä epäeettisiä käsityksiä, ja mahdollisesti laiton kerros. Meidän on ensin estettävä noiden korttien jakaminen. Uhkea tavoite luoda ja levittää eettisiä tekoälystandardeja on tärkeä työkalu tulevan tsunamin torjuntaan. AI huono.

Voit vakuuttaa, että rehottava tekoälyharha ja epäeettinen tekoäly on kuin hauraa korttitalo, joka romahtaa itsensä päälle ja on todennäköisesti tuhoisa meille kaikille.

Pelataan voittaaksemme ja tehdään se sopivan eettisen tekoälyn avulla.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/