Tekoälyn etiikka suhtautuu skeptisesti niin kutsuttujen punaisen lipun tekoälylakkien luomiseen puolueellisten algoritmien kutsumiseksi esiin autonomisissa tekoälyjärjestelmissä

Puhutaanpa punaisen lipun laeista.

Tiedät epäilemättä, että punaisen lipun lait on käsitelty laajasti uutisissa viime aikoina. Aihetta käsitteleviä otsikoita on runsaasti. Intohimot ja kiihkeät keskustelut tällaisista asioista ovat mielessä yhteiskunnallisena huolenaiheena, ja niihin liittyy nykyisiä ja nopeasti kehittyviä Red Flag -aselakeja.

Uskaltaisin kuitenkin väittää, että et ehkä ole perehtynyt muihin 1800-luvun lopulla säädetyihin Red Flag -lakeihin, jotka koskivat moottoriajoneuvoja ja nykypäivän jokapäiväisten modernien autojen edelläkävijöitä. Kyllä, se on totta, Red Flag -lainsäädäntö ulottuu historiaan, vaikka se kattaa muita aiheita verrattuna nykypäivän painopisteeseen. Näitä kutsutaan yleensä punaisen lipun liikennelaiksi.

Nämä nyt vuosisataa vanhat ja kokonaan lakkautuneet lait vaativat, että kaikkien moottoroitujen vaunujen tai höyryllä pyörivien moottorien oli tuolloin oltava aikuinen ajoneuvon edellä ja kannettava punaista lippua varoitustarkoituksessa. Ajatuksena oli, että karja saattaisi huolestua noista meluisista ja röyhkeistä koneista, jotka putosivat hitaasti ja epätasaisesti pitkin likaa tai marginaalisesti päällystettyjä teitä, jolloin joku kävelee rakennuksen edessä ja heiluttaen voimakkaasti punaista lippua voisi toivottavasti välttää onnettomuuksia. Jos mietit, rautateitä ja junia pidettiin samojen lakien ulkopuolelle, koska ne olivat ajoneuvoja, jotka oli kiinteästi sidottu kiskoihin ja niillä oli muita lakeja niiden toiminnasta.

Kuvittele, että joudumme heiluttamaan punaisia ​​lippuja tänään vaatimuksena jokaiselle autolle julkisilla teillämme.

Esimerkiksi tavallinen autoilija, joka tulee lähikadulle, joutuisi varmistamaan, että punaista lippua heiluttava aikuinen on paikalla ja paraati liikkuvan auton edessä. Tämän pitäisi tapahtua jokaiselle kadullasi kulkevalle ajoneuvolle. Ehkä ihmisistä tulisi punalipputyöläisiä, jotka palkkasivat ohikulkeville autoilijoille, joilla ei muuten ollut ystävää tai sukulaista, joka voisi mennä heidän eteensä ja tehdä määrätyn heiluttamisen.

Meillä on nykyään tapana yhdistää valtatie liittyvä punaisen lipun heilutus tienrakennustyömaihin. Kun tulet lähelle kaivettua tietä, työntekijät pitävät ylhäällä punaista lippua kiinnittääkseen huomiosi. Tämä kehottaa sinua hidastamaan ja olemaan valppaana. Siellä voi olla puskutraktori, joka on tulossa tiellesi. Edessä saattaa olla jättiläinen reikä, ja sinun on kuljetettava varovasti sen ympäri.

Mutta palataanpa 1800-luvun punaisten lippujen käyttöön.

Uskokaa tai älkää, punaisen lipun heilutuksen piti olla vähintään kahdeksasosa mailin päässä tulevasta moottoroidusta koneesta. Se tuntuu aika pitkältä matkalta. Oletetaan kuitenkin, että tällä oli niinä aikoina järkeä. Moottorin hätkähdyttävä ääni ja kenties pelkkä ajoneuvon näkeminen saattavat riittää saattamaan eläimet hermostumaan. Jotkut tuon aikakauden punaisen lipun lait vaativat myös loistavan punaisen valon pitämistä ylhäällä yöaikaan, jotta visuaalisesti näkyvä punainen varoitusvaroitus voitaisiin nähdä pimennetyltä etäisyydeltä.

Yleisesti ottaen mielestäni on reilua väittää, että meillä yhteiskunnassa on tapana yhdistää punainen lippu eräänlaiseksi merkiksi tai merkiksi siitä, että jokin on mahdollisesti vialla tai ainakin tarvitsee hartaasti huomiotamme.

Valmistaudu tämän punaisen lipun ilmiön käänteeseen.

On väitetty, että meidän pitäisi vaatia punaisen lipun määräyksiä tekoälyn (AI) suhteen.

Se on vähän hätkähdyttävä ja yllättävä konsepti, joka saa monet päätä raapimaan. Saatat ihmetellä, miten tai miksi pitäisi olla ns Red Flag AI -lait. Huomaa, että merkitsen tämän Red Flag AI -laiksi erottaakseni asian Red Flag -liikennelaeista (kuten 1800-luvun lopun liikennelaeista) ja myös erottaakseni ne tämän päivän muista yleisimmistä Red Flag -aselakeista.

Tarvitsemmeko todella Red Flag AI -lakeja, jotka ovat selkeästi ja yksinomaan AI-asioihin suunnattuja?

Ne, jotka kannattavat ehdotettua lähestymistapaa, vaativat, että tarvitsemme ehdottomasti säännöksiä, jotka auttaisivat torjumaan tarpeettomia ennakkoluuloja ja toimia syrjivästi. Tällä hetkellä tekoälyn rakentaminen ja käyttöönotto muistuttavat villin lännen olosuhteita. Huonon tekoälyn hillitseminen riippuu tällä hetkellä tekoälyn eettisten ohjeiden muotoilusta ja hyväksymisestä. Jatkuva ja laaja kattavuus tekoälyn eettisyydestä ja eettisestä tekoälystä, katso linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Lakia, jotka rajoittavat huonoa tekoälyä, suunnitellaan ja pannaan täytäntöön hitaasti, katso artikkelini osoitteessa linkki tähän. Jotkut pelkäävät, että lainsäätäjät eivät toimi tarpeeksi nopeasti. Näyttää siltä, ​​että puolueellisen tekoälyn edistämisen tulvaportit ovat tällä hetkellä suurelta osin auki. Käsien vääntäminen sanoo, että kun uudet lait tulevat kirjoihin, niin paha henki on jo pullosta.

Ei niin nopeasti, vasta-argumentit menevät. On huolestuttavaa, että jos lait otetaan käyttöön liian nopeasti, tapamme ikään kuin kultaisen hanhen, jolloin tekoälytyöt kuivuvat, emmekä saa uusien tekoälyjärjestelmien yhteiskunnallisesti lisääviä etuja. Tekoälykehittäjät ja -yritykset, jotka haluavat käyttää tekoälyä, saattavat pelästyttää, jos bysanttilainen joukko uusia tekoälyä koskevia lakeja otetaan yhtäkkiä käyttöön liittovaltion, osavaltion ja paikallisella tasolla, puhumattakaan kansainvälisistä tekoälyyn liittyvistä laeista, jotka myös marssivat eteenpäin.

Tähän sotkuiseen tapaukseen liittyy Red Flag AI -lakeja koskeva vaatimus.

Ennen kuin käsittelemme lisää lihaa ja perunoita kuvitellun Red Flag AI -lain taustalla olevista villeistä ja epämääräisistä seikoista, laaditaanpa joitain lisäperusteita erittäin olennaisista aiheista. Meidän täytyy sukeltaa lyhyesti tekoälyn etiikkaan ja erityisesti koneoppimisen (ML) ja Deep Learningin (DL) tuloon.

Saatat olla hämärästi tietoinen siitä, että yksi tämän päivän kovimmista äänistä tekoälyalalla ja jopa tekoälykentän ulkopuolella on huutaminen eettisen tekoälyn suuremman vaikutelman puolesta. Katsotaanpa, mitä tarkoittaa viitata tekoälyn etiikkaan ja eettiseen tekoälyyn. Tämän lisäksi tutkimme, mitä tarkoitan puhuessani koneoppimisesta ja syvästä oppimisesta.

Eräs tietty AI Ethics -segmentti tai osa, joka on saanut paljon mediahuomiota, koostuu tekoälystä, jossa on epäsuotuisia ennakkoluuloja ja epätasa-arvoa. Saatat olla tietoinen siitä, että kun uusin tekoälyn aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Paitsi äänekäs juridinen väärinkäytösten hillitsemiseen tähtäävät pyrkimykset omaksua tekoälyn etiikka tekoälyn ilkeyden korjaamiseksi. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Tähän liittyvään ajatukseen, kannatan tekoälyn käyttämistä osana tekoälyongelmien ratkaisua ja tulen torjumista tulella tällä ajattelutavalla. Voisimme esimerkiksi upottaa eettisiä tekoälykomponentteja tekoälyjärjestelmään, joka valvoo, kuinka muu AI tekee asioita ja saa siten mahdollisesti kiinni reaaliajassa kaikki syrjivät toimet, katso keskusteluni osoitteessa linkki tähän. Meillä voisi olla myös erillinen tekoälyjärjestelmä, joka toimii eräänlaisena AI Ethics -monitorina. Tekoälyjärjestelmä toimii valvojana, joka seuraa ja havaitsee, kun toinen tekoäly on menossa epäeettiseen kuiluun (katso analyysini tällaisista ominaisuuksista linkki tähän).

Hetken kuluttua kerron teille joitain tekoälyn etiikan taustalla olevia yleisiä periaatteita. Tällaisia ​​listoja kelluu siellä täällä paljon. Voisi sanoa, että ei ole vielä olemassa yksittäistä luetteloa yleismaailmallisesta vetovoimasta ja yhteisymmärryksestä. Se on ikävä uutinen. Hyvä uutinen on, että ainakin AI Ethics -luetteloita on helposti saatavilla ja ne ovat yleensä melko samanlaisia. Kaiken kaikkiaan tämä viittaa siihen, että eräänlaisen perustellun lähentymisen avulla löydämme tiemme kohti yleistä yhteneväisyyttä siitä, mistä tekoälyn etiikka koostuu.

Käydään ensin lyhyesti läpi joitakin yleisiä eettisiä tekoälyohjeita havainnollistaaksemme, minkä pitäisi olla olennaista jokaiselle tekoälyä luovalle, harjoittelevalle tai käyttävälle.

Esimerkiksi, kuten Vatikaani totesi Rooma kutsu tekoälyn etiikkaan ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän tunnistamansa kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Varmistetaan myös, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluamme villisti spekuloida tunteva AI, tämä keskustelu voisi mennä radikaalisti eri suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (superälykkään tekoälyn mahdollisuudesta tutkimisestani, katso ks. kattavuus täällä).

Pidetään asiat maanläheisemmin ja harkitaan nykypäivän laskennallista tuntematonta tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Palataanpa keskittymään Red Flag AI -lakeihin.

Perusajatuksena on, että ihmiset voisivat nostaa punaisen lipun aina, kun he uskovat tekoälyjärjestelmän toimivan kohtuuttoman puolueellisesti tai syrjivästi. Et nostaisi fyysistä lippua sinänsä, vaan käyttäisit vain sähköisiä keinoja kertoaksesi huolesi. Järjestelmän tai lähestymistavan punainen lippu on enemmän metafora kuin fyysinen suoritusmuoto.

Kuvittele, että haet asuntolainaa. Voit hakea lainaa verkkopankkipalvelusta. Kun olet syöttänyt joitain henkilötietoja, odotat hetken, että tekoälyjärjestelmä päättää, oletko lainan arvoinen vai et. Tekoäly kertoo sinulle, että sinulta on evätty laina. Pyydettäessä selitystä siitä, miksi sinut hylättiin, tekstillinen kertomus näyttää viittaavan sinulle, että tekoäly käytti kohtuuttomia puolueellisia tekijöitä osana päätöksentekoalgoritmia.

On aika nostaa punainen lippu tekoälystä.

Missä tämä punainen lippu oikein heiluu?

Se on miljoonan dollarin kysymys.

Yksi näkökulma on, että meidän pitäisi perustaa valtakunnallinen tietokanta, jonka avulla ihmiset voivat merkitä tekoälyyn liittyvät punaiset lippunsa. Jotkut sanovat, että liittovaltion pitäisi säännellä tätä. Liittovaltion virastot olisivat vastuussa punaisten lippujen tutkimisesta ja suuren yleisön auttamisesta niiden todenperäisyyden suhteen ja oletettavasti "huonon tekoälyn" käsittelemisestä, joka nosti punaisen lipun raportointituloksia.

Kongressi näyttäisi vahvistavan kansallisen Red Flag AI -lain. Laki selventäisi, mikä tekoälylle liittyvä punainen lippu on. Laki kuvaisi kuinka nämä tekoälyn punaiset liput nostetaan. Ja niin edelleen. Voi myös olla niin, että yksittäiset osavaltiot voivat myös päättää laatia omia Red Flag AI -lakejaan. Ehkä he tekevät niin kansallisen aloitteen sijasta tai he tekevät niin vahvistaakseen yksityiskohtia, jotka ovat erityisen houkuttelevia heidän erityiseen tilaansa.

Liittovaltion tai minkä tahansa valtion tukeman Red Flag AI -ohjelman kriitikot väittävät, että tämä on jotain, mitä yksityinen teollisuus voi tehdä, emmekä tarvitse Big Brotheria nousemaan etualalle. Teollisuus voisi perustaa online-arkiston, johon ihmiset voivat rekisteröidä punaisia ​​lippuja tekoälyjärjestelmistä. Alan itsepoliittinen toiminta ratkaisisi nämä asiat riittävästi.

Väitetyn teollisuuden lähestymistavan epäilyksenä on, että se näyttää haisevan cronyismilta. Ovatko yritykset halukkaita noudattamaan yksityistä Red Flag AI -tietokantaa? Monet yritykset voisivat jättää huomioimatta merkityt punaiset liput tekoälystään. Ei olisi teräviä hampaita saada yritykset käsittelemään annettuja punaisia ​​lippuja.

Hei, yksityisen sektorin lähestymistavan kannattajat kuulostavat, tämä olisi kuin kansallista Yelpin kaltaista palvelua. Kuluttajat voivat katsoa punaisia ​​lippuja ja päättää itse, haluavatko he tehdä liiketoimintaa yritysten kanssa, jotka ovat keränneet joukon tekoälyyn liittyviä punaisia ​​lippuja. Pankin, joka sai paljon punaisia ​​​​lippuja tekoälystään, olisi kiinnitettävä huomiota ja uudistettava tekoälyjärjestelmänsä, joten logiikka menee, muuten kuluttajat vältyttäisivät yritystä kuin ruttoa.

Onko koko tämän lähestymistavan omaksunut hallitus vai teollisuus, se on vain jäävuoren huippu vaikeissa kysymyksissä, joita ehdotettu Red Flag AI -laki edellyttää.

Astu sellaisen yrityksen kenkiin, joka on kehittänyt tai käyttää tekoälyä. Saattaa olla, että kuluttajat nostavat punaisia ​​lippuja, vaikka siihen ei olisi mitään järkevää perustetta. Jos ihmiset voisivat vapaasti laittaa punaisen lipun tekoälystä, heillä saattaa olla houkutus tehdä niin mielijohteesta tai ehkä kostosta yritykselle, joka ei muuten tehnyt mitään väärää kuluttajaa kohtaan.

Lyhyesti sanottuna tekoälystä voi olla paljon vääriä positiivisia punaisia ​​lippuja.

Toinen näkökohta on tuloksena olevien punaisten lippujen valtava koko tai suuruus. Punaisia ​​lippuja voidaan helposti nostaa miljoonia ja miljoonia. Kuka seuraa kaikkia noita punaisia ​​lippuja? Mitähän se maksaisi? Kuka maksaa punaisen lipun seurantatoimista? Jne.

Jos sanoisit, että jokaisen, joka rekisteröi tai ilmoittaa tekoälyä koskevan punaisen lipun, on maksettava maksu, olet astunut hämärään ja salakavalaan maailmaan. Huolenaiheena olisi, että vain varakkailla olisi varaa nostaa punaisia ​​lippuja. Tämä puolestaan ​​​​merkitsee sitä, että köyhät eivät voisi osallistua tasapuolisesti punaisen lipun toimintaan, eivätkä heillä ole periaatteessa paikkaa varoittaa haitallisesta tekoälystä.

Vielä yksi lisäkäänne toistaiseksi, nimittäin se, että tällaiset tekoälyä koskevat punaisen lipun lait tai ohjeet näyttävät olevan jälkikäteen sen sijaan, että ne toimisivat varoituksena etukäteen.

Palatakseni punaisen lipun liikennelakiin, punaisen lipun käytön painopiste oli välttää onnettomuuden joutuminen aluksi. Punaisen lipun heilutuksen piti olla paljon edellä tulevaa autoa. Ajoneuvon edellä ollessaan karja saisi hälytyksen ja karjaa vartioivat tietävät, että heidän tulee ryhtyä varotoimiin pian saapuvan häiritsevän lähteen vuoksi.

Jos ihmiset vain pystyvät nostamaan punaisen lipun tekoälystä, joka on ilmeisesti jo vahingoittanut tai alentanut heidän oikeuksiaan, sananlaskuhevonen on jo ulos navetta. Tämä näyttäisi saavuttavan vain sen, että toivottavasti muut mukana tulevat ihmiset tietävät nyt olevansa varovaisia ​​tekoälyjärjestelmän suhteen. Sillä välin epäilty henkilö on jo kärsinyt.

Jotkut ehdottavat, että voisimme antaa ihmisten nostaa punaisia ​​lippuja tekoälystä epäilty voivat olla puolueellisia, vaikka he eivät olisi käyttäneet tekoälyä eivätkä ne ole suoraan vaikuttaneet heihin. Näin ollen punaista lippua heilutetaan ennen kuin vahinko on tehty.

Jep, retortti kuuluu, aiot todella tehdä tekoälystä selviytyvistä punaisista lipuista täysin hallitsemattoman ja kaoottisen tapauksen. Jos joku mistä tahansa syystä voi nostaa punaisen lipun tekoälyjärjestelmästä, vaikka hän ei ole tehnyt mitään tälle tekoälylle, tulet tulvii punaisiin lippuihin. Vielä pahempaa, et pysty erottamaan vehnää akanoista. Koko red flag -lähestymistapa romahtaa oman painonsa alla ja poistaa idean hyvyyden antamalla flotsamin ja riffraffin upottaa koko laivan.

Huimaa ja hämmentävää.

Tämän painavan keskustelun tässä vaiheessa lyön vetoa, että kaipaat havainnollistavia esimerkkejä, jotka voisivat esitellä tätä aihetta. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo mitään Red Flag AI -lakeista, ja jos on, mitä tämä esittelee?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja Red Flag AI -lait

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Toivon, että se tarjoaa riittävän litaania varoituksia taustalla, mitä aion kertoa.

Piirretään skenaario, joka saattaa hyödyntää Red Flag AI -lakia.

Istut tekoälypohjaiseen itseajavaan autoon ja haluat, että autonominen ajoneuvo ajaa sinut paikalliseen ruokakauppaan. Suhteellisen lyhyen matkan aikana tekoäly valitsee reitin, joka näyttää sinusta hieman pieleen. Sen sijaan, että menisi suorimpaan suuntaan, tekoäly navigoi syrjäisille kaduille, jolloin ajoaika on normaalia pidempi.

Mitä on tekeillä?

Olettaen, että maksat itseajavan auton käytöstä, saatat epäillä, että tekoäly oli ohjelmoitu ajamaan pidempää reittiä yrittääkseen nostaa matkan hintaa tai kustannuksia. Jokainen, joka on koskaan käyttänyt tavanomaista ihmisohjaamoa, tietää tempun, jolla voidaan saada lisää taikinaa mittariin. Tietysti, kun ihmisillä on GPS älypuhelimessaan ajaessaan ohjaamossa tai vastaavassa, voit helposti saada kiinni ihmiskuljettajan, joka näyttää ovelasti kulkevan tarpeettoman pitkiä reittejä.

Osoittautuu, että sinulla on toinen huoli reitin valinnasta, mikä todella kalvaa sinua.

Oletetaan, että reititys tehtiin tiettyjen kaupungin osien välttämiseksi rodullisista syistä johtuen. On dokumentoituja tapauksia ihmiskuljettajista, jotka on jäänyt kiinni tekemästä tällaisia ​​valintoja, katso keskusteluni osoitteessa linkki tähän. Ehkä tekoäly on ohjelmoitu siihen kielteisesti.

Päätät nostaa punaisen lipun.

Oletetaan keskustelun vuoksi, että Red Flag AI -laki on annettu, joka kattaa sinun lainkäyttöalueesi. Se voi olla paikallinen laki, osavaltion laki, liittovaltion laki tai kansainvälinen laki. Katso analyysi, jonka tein yhdessä Harvardin autonomisen ajoneuvopolitiikan aloitteen (AVPI) kanssa paikallisen johtajuuden kasvavasta merkityksestä, kun yhteisöt ottavat käyttöön itseohjautuvien autojen käytön, katso kohta. linkki tähän.

Joten siirryt online-tilassa Red Flag AI -tietokantaan. Tapahtumatietokantaan syötät tiedot itse ajavan auton matkasta. Tämä sisältää ajovaelluksen päivämäärän ja kellonajan sekä itseajavan auton merkin ja mallin. Syötät sitten epäilyttävältä näyttävän navigointireitin ja ehdotat tai ehkä väität suoraan, että tekoäly on suunniteltu puolueellisella tai syrjivällä tarkoituksella ja kapasiteetilla.

Meidän olisi spekuloitava Red Flag AI -lain muilla yksityiskohdilla sen suhteen, mitä tapahtuu seuraavaksi tässä skenaariossa. Teoriassa olisi määräys, että joku tarkistaisi punaisen lipun. He oletettavasti yrittäisivät saada autonvalmistajan tai itse ajavan teknologiayrityksen selittämään näkemyksensä kirjautuneesta punaisesta lipusta. Kuinka monta muuta tällaista punaista lippua on rekisteröity? Mitä tuloksia nuo punaiset liput tuottivat?

Ja niin se jatkuisi.

Yhteenveto

Järjetöntä, jotkut skeptikot kehottavat.

Emme tarvitse Red Flag AI -lakeja, ne noudattavat ankarasti. Kaiken tämänkaltaisen tekeminen hidastaa tekoälyn vauhtia ja edistymistä. Kaikki tällaiset lait olisivat raskaat. Luoisit ongelman, joka ei ratkaise ongelmaa. On muitakin tapoja käsitellä tekoälyä, jotka ovat huonoja. Älä tartu sokeasti pillistä selviytyäksesi puolueellisesta tekoälystä.

Vaihtelemalla me kaikki tiedämme, että härkätaistelijat käyttävät punaisia ​​viittoja herättääkseen vihaisen härän huomion. Vaikka punainen on väri, jota yhdistämme eniten tähän käytäntöön, saatat yllättyä tietää, että tiedemiehet sanovat, että härät eivät havaitse muletan punaista väriä (ne ovat värisokeita punaiselle). Suosittu esitys Myytinmurtajat teki varsin mielenkiintoisen tutkimuksen tästä asiasta. Viitan liike on tärkeämpi elementti kuin valittu väri.

Niille, jotka hylkäävät Red Flag AI -lain tarpeen, vastaväite on, että tarvitsemme jotain dramaattista ja erehtymätöntä heiluttavaa, jotta voimme varmistaa, että tekoälykehittäjät ja tekoälyä käyttävät yritykset välttävät puolueellista tai huonoa tekoälyä. Jos ei punaista lippua, ehkä lepattava viitta tai pohjimmiltaan mikä tahansa varoittava lähestymistapa saattaa olla asianmukaisen harkinnan piirissä.

Tiedämme varmasti, että huonoa tekoälyä on olemassa ja että paljon enemmän huonoa tekoälyä on matkalla meidän suuntaan. On erittäin tärkeää löytää tapoja suojautua haitallisilta tekoälyltä. Samoin suojakaiteiden asettaminen estämään huonoa tekoälyä pääsemästä maailmaan on yhtä tärkeää.

Ernest Hemingway totesi kuuluisasti, että kukaan ei koskaan elä elämäänsä loppuun asti paitsi härkätaistelijat. Meidän on varmistettava, että ihmiset voivat elää elämänsä loppuun asti, huolimatta AI:n pahuudesta tai hulluudesta, joka meille levitetään.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-nevezett-red-flag-ai-laws-for-calling-out- biased-algoritms-in-autonomous-ai-systems/