Tekoälyn etiikka On järkevää tai turhaa arvioida varovaisesti, onko tekoälyn harhaanjohtaminen metsästyspalkkioita pyydystämään ja nappaamaan eettisesti pahoja täysin autonomisia järjestelmiä

Halusi: AI bias metsästäjät.

Se voisi olla nykyajan mainos, jonka alat nähdä sosiaalisen median kanavissa ja esiintyä erilaisissa verkkotyöilmoituksissa. Tämä on suhteellisen uusi käsite tai rooli. Se kantaa mukanaan kiistaa. Jotkut kiihkeät uskovaiset väittävät kiihkeästi, että siinä on paljon järkeä ja sen olisi pitänyt tapahtua koko ajan, kun taas toiset ovat melko hermostuneesti raapineet vakavasti päätään eivätkä ole niin varmoja siitä, onko tämä hyvä idea.

Roolin ydin koostuu piilotettujen ennakkoluulojen tai sulautettujen syrjivien käytäntöjen poistamisesta tekoälystä. Avuksi tulevat innokkaat ja entisaikojen täysin puolueelliset metsästäjät. He olisivat oletettavasti tietokoneita tuntevia palkkionmetsästäjiä. Enemmänkin, toivottavasti, täynnä tekoälyominaisuuksien syvyyksiä.

Pidä ase, matkustat ja pystyt tekoälyn innokkaan ampumataidon avulla paljastamaan nämä epämiellyttävät ja epäsuotuisat tekoälyharhat.

Tämä herättää joukon vaikeita kysymyksiä tällaisen taktiikan noudattamisen järkevyydestä, kun on kyse tekoälypoikkeamien havaitsemisesta. Kuten aion keskustella hetken, huomaa, että tekoälyn tulo on myös tuonut mukanaan tekoälyn ennakkoluuloja. AI-harhojen tulva. Jatkuva ja laaja kattavuus tekoälyn eettisyydestä ja eettisestä tekoälystä, katso linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Kuinka voimme havaita, että tietyllä tekoälyjärjestelmällä on harhaa?

Voit antaa tekoälyn kehittäneiden tekoälykehittäjien tehtäväksi sen. Asia on siinä, että he saattavat olla niin juuttuneet ennakkoluuloihin, etteivät he itse pysty tunnistamaan omia tekoälynsä vääristymiä. Heistä kaikki näyttää hyvältä. Tai he saattavat olla niin innoissaan tekoälystä ja heillä on siitä ylpeyden tunne, että olisi vaikeaa ja todellista alaspäin katsoa kriittisesti sen tutkimiseksi. Monet muut tällaiset syyt saattavat tuntua heikentävän sitä, että tekoälykehittäjät ottavat tämän tehtävän, mukaan lukien taitojen puute selvittää upotettuja harhoja, ajan puute projektissa tehdä niin jne.

Okei, joten mene eteenpäin ja palkkaa ulkopuolisia konsultteja tekemään likaiset työt puolestasi. Osoittautuu, että konsultit tutkivat mielellään tekoälyäsi ennakkoluulojen varalta ja veloittavat sinulta melkoisen pennin (paljon, paljon penniä). Ymmärrä, että sinun on maksettava siitä, että he tulevat toimimaan tekoälyjärjestelmäsi kanssa. Sinun täytyy sitten saada heidät kurjaamaan ympäriinsä, mikä saattaa viedä suunnattoman määrän kalliita työtunteja. Konsulttien käyttö on vaihtoehto, jos sinulla on siihen budjetti.

Mahdollisiin "aukkoihin" näiden salakavalaisten tekoälypoikkeamien löytämisessä tulevat sankarilliset ja räjähdysmäiset tekoälypoikkeamat palkkionmetsästäjät.

Et yleensä maksa niitä etukäteen. He yrittävät löytää tekoälyn vääristymät omaan aikaansa ja joutuvat maksamaan omat laskunsa. Heille maksetaan vain, jos he löytävät ennakkoluuloja. Oletan, että voit helposti väittää, että sopivalla ajattelutavalla se on palkkionmetsästäjän tavanomainen määritelmä. Saat palkkaa, jos onnistut. Älä saa palkkaa, jos et menesty. Kausi, tarinan loppu.

Palkkio-ohjelmia on ollut olemassa ainakin roomalaisten ajoista lähtien, joten voimme olettaa, että ne toimivat, koska ne ovat menestyneet käytäntönä kaikki nämä vuodet.

Tässä on kiehtova pala historiallista triviaa sinulle. Raporttien mukaan Rooman valtakunnan aikana Pompejin kaupungissa lähetetty viesti julisti, että palkkionmetsästäjiä tarvittiin löytääkseen pienestä kaupasta kadonnut kupariruukku. Palkintona kupariruukun talteenotosta oli vaikuttava kuusikymmentäviisi pronssikolikkoa. Valitettavasti emme tiedä, löysikö joku palkkionmetsästäjä kuparisen ruukun ja sai pronssiset kolikot, mutta tiedämme, että palkkionmetsästäjä on varmasti jatkunut noista muinaisista ajoista lähtien.

Nykyaikana saatat olla tietoinen siitä, että 1980-luvulla tarjottiin joitain merkittäviä palkkioita tietokonevirheiden tai hyllyltä saatavien ohjelmistopakettien virheiden löytämiseksi, ja sitten 1990-luvulla Netscape tarjosi huomattavasti palkkiota virheiden löytämisestä verkkoselaimesta. (josta tuli yksi tuon päivän merkittävimmistä yrityksistä). Google ja Facebook olivat kumpikin valinneet bugien palkkionmetsästyksen vuodesta 2010 ja 2013 alkaen. Muutamaa vuotta myöhemmin, vuonna 2016, jopa Yhdysvaltain puolustusministeriö (DoD) ryhtyi toimeen tekemällä "Hack the Pentagon" -palkkioyrityksen (huomaa, että julkisesti kohdistettu palkkio koski bugeja, jotka löytyivät useilta puolustusministeriöön liittyviltä verkkosivustoilta, ei puolustustehtäväkriittiset järjestelmät).

Kaivataanpa syvemmälle bug bounty -aihetta. Ymmärrän, että pyrin tässä keskustelussa pääasiassa puhumaan tekoälyn ennakkoluuloista palkkionmetsästyksen yhteydessä, mutta vikojen palkkion areenalla on joitain varsin olennaisia ​​yhtäläisyyksiä.

Jotkut ovat todistettavasti ymmällään siitä, että mikä tahansa yritys haluaisi tarjota palkkion löytääkseen vikoja (tai tässä tapauksessa tekoälypoikkeamia) järjestelmissään.

Pinnalla tämä vaikuttaa "pyydät sitä" -tyyppiseltä strategialta. Jos kerrot maailmalle, että toivotat tervetulleeksi ne, jotka saattavat yrittää löytää aukkoja ohjelmistossasi, se näyttää samanlaiselta kuin käskeisit murtovarkaat menemään eteenpäin ja yrittämään murtautua taloosi. Vaikka uskoisitkin jo, että sinulla on melko hyvä murtohälytysjärjestelmä ja ettei kukaan pääse turvaan kotiisi, kuvittele, että pyydät ja todella rukoilet murtovarkaita, että kaikki laskeutuisivat asuinpaikkaasi ja katsovat, pääsevätkö he murtautua siihen. Voi niitä ongelmia, joita kudomme itsellemme.

Samaa voidaan sanoa palkkionmetsästäjien pyytämisestä löytää vääriä tekoälyäsi.

Ensinnäkin se ehkä tarkoittaa, että uskot jo tai jopa tiedät suoraan, että tekoälylläsi on ennakkoluuloja. Tämä on järkyttävän suoraselkäinen implisiittinen tunnustus, jonka harvat näyttävät olevan halukkaita tekemään ja jotka voisivat kostautua.

Toiseksi, et tiedä varmasti, mitä nuo palkkionmetsästäjät voivat tehdä. He voisivat halutessaan kertoa koko maailmalle, että he löysivät tekoälystäsi vääristymiä. Oletetaan, että tämä saattaa menettää palkkion saamisen, vaikka jotkut saattavat nauttia huomiosta tai pyrkiä vahvistamaan asemaansa konsulttikeikkojen ja muiden tulonhankintamahdollisuuksien saamiseksi. Se saattaa olla täysin altruistista. Se saattaa olla tekoälyaktivismin muoto. Voin jatkaa.

Kolmanneksi koko jutussa voi olla ovela käänne. Palkkionmetsästäjä, joka väittää etsivänsä tekoälyn ennakkoluuloja, saattaa olla pirullisena etsimässä tapoja hyökätä tekoälyjärjestelmääsi. Koko juttu on huijausta lopulta vakavaan kyberhyökkäykseen. Olet saattanut olettaa, että he yrittivät auttaa, vaikka heillä on väärintekoa sydämessään. Surullista, mutta mahdollista.

Neljänneksi voimme olla vieläkin viekkaammin vääristyneitä tästä asiasta. Palkkionmetsästäjä löytää kiusallisia ja mahdollisesti oikeusjuttuja kiihottavia tekoälyn ennakkoluuloja. Palkkio on jokin dollarimäärä, jota kutsumme X:ksi. Palkkionmetsästäjä ei vaatisi palkkiota, vaan tekee eräänlaisen omituisen ransomware-provokoinnin. Jos maksat palkkionmetsästäjälle kymmenen kertaa X tai kenties taivas rajan, he kertovat sinulle tekoälyn harhasta. Sinulla on sunnuntai-iltaan keskiyöhön asti aikaa vastata. Tämän ajankohdan jälkeen tekoälyn ennakkoluulot paljastetaan kaikkien nähtäville. Jep, hirveän vaikeassa tilanteessa.

Viidenneksi viimeisimmät ovat ne niin sanotut "hack to return" -verkkorikolliset, jotka varastettuaan joukon nettitaikinaa, he päättävät katua ja palauttaa osan nappaamistaan ​​väärin hankituista saaliista. Yhtiö, joka saa rahansa osittain takaisin, on sitten valmis pitämään jäljellä olevaa varastettua määrää varkaille maksettavana palkkiona. Näyttää siltä, ​​​​että kaikki "voittavat", koska suurin osa varoista palautetaan ja sillä välin verkkorikollisia ei tavoiteta laillisesti, ja he saavat piraattipalkkion. Onko tämä järkevää vai salakavalasti luvatonta toimintaa?

Ymmärrän, että jotkut teistä saattavat sanoa, että kenenkään ei pitäisi julkaista tekoälyä, jossa on ennakkoluuloja. Se näyttäisi ratkaisevan tämän koko ongelman siitä, käytetäänkö tekoälyn harhaa palkkionmetsästäjiä vai ei. Älä vain joudu palkkiotilanteeseen. Varmista, että tekoälykehittäjäsi tekevät oikein eivätkä salli tekoälyn vääristymiä tekoälyjärjestelmiensä. Ehkä käytä konsultteja tehdäksesi kaksinkertaisen tarkastuksen. Pohjimmiltaan, tee kaikki mitä tarvitset, jotta et koskaan ajattele tai pyydä tekoälyn palkkionmetsästäjiä tulemaan pöytään.

Kyllä se kuulostaisi täysin järkevältä. Ongelmana on, että se on myös hieman unenomaista. Monien tekoälyjärjestelmien monimutkaisuus on niin suuri, että sen varmistaminen, ettei tekoälyn vääristymiä esiinny, tulee olemaan työlästä. Tämän lisäksi jotkin tekoälyjärjestelmät on tarkoituksella suunniteltu mukautumaan ja "oppimaan" niiden edetessä. Tämä tarkoittaa, että jossain tulevassa ajassa suunnittelemasi tekoäly, jonka oletetaan ensin olevan puhtaasti puhdas ja ilman ennakkoluuloja, saattaa painottua kohti ennakkoluuloja (en tarkoita sitä antropomorfisella tavalla, kuten selitän tarkemmin samalla kun me jatka tästä aiheesta).

Ne, jotka kannattavat ohjelmistovirheiden palkkionmetsästystä, ovat taipuvaisia ​​väittämään, että tällaisten palkkioiden tarjoaminen on järkevää. Voimme harkita niiden perusteluja ja nähdä, koskeeko se myös tekoälyn harhaa.

Virhepalkkioiden kannattajat korostavat, että sen sijaan, että yrittäisivät teeskennellä, ettei järjestelmässäsi ole reikiä, miksi ei rohkaistaisi aukkojen löytämiseen, tehden niin "hallitulla" tavalla? Sitä vastoin ilman tällaista palkkion ponnistelua voisi vain toivoa ja rukoilla, että sattumanvaraisesti kukaan ei löydä reikää, mutta jos sen sijaan tarjoat palkkion ja kerrot reiän löytäneille, että heidät palkitaan, se tarjoaa mahdollisuus sitten rantauttaa reikä itse ja estää muita löytämästä sitä salaa jossain myöhemmässä vaiheessa.

Samaa voidaan sanoa tekoälypoikkeamien käyttötapauksessa. Jos tarjoat riittävän palkkion, toivottavasti palkkionmetsästäjät kiinnittävät huomiosi tekoälyn harhaan. Voit sitten selviytyä tekoälyn harhoista suhteellisen hiljaisella ja mitatulla tavalla. Tämä saattaa estää myöhemmin paljon suuremman ja pelottavamman ongelman, nimittäin sen, että joku muu löytää tekoälyn harhaa sinun tekoälyssäsi ja huutaa siitä taivaaseen.

Yleensä yritys, joka haluaa mahdollistaa vikojen palkkionmetsästyksen, ottaa käyttöön VDP (Vulnerability Disclosure Policy) -käytännön. VDP osoittaa, kuinka virheet löydetään ja miten niistä ilmoitetaan yritykselle, sekä kuinka palkkio tai palkkio annetaan metsästäjälle. Yleensä VDP edellyttää, että metsästäjä allekirjoittaa salassapitosopimuksen (NDA), jotta he eivät paljasta muille löytämiään tietoja.

Ajatus NDA:n käytöstä palkkionmetsästäjien kanssa on kiistanalainen. Vaikka palkkion tarjoavan yrityksen on ehkä järkevää haluta säilyttää löydetyt altistukset äidille, sen sanotaan myös tukahduttavan yleistä tietoisuutta tällaisista vioista. Oletettavasti, jos ohjelmistovirheistä saa puhua, se mahdollisesti auttaisi muiden yritysten muiden järjestelmien turvallisuutta, jotka sitten vahvistaisivat altistumistaan. Jotkut palkkionmetsästäjät eivät allekirjoita NDA-sopimusta osittain julkisen halun vuoksi ja osittain siksi, että he yrittävät pitää oman identiteettinsä piilossa. Muista myös, että NDA-näkökohta tulee yleensä esiin vasta sen jälkeen, kun metsästäjä väittää löytäneensä vian, sen sijaan, että vaadittaisiin sitä etukäteen.

Joissakin VDP:issä määrätään, että NDA on voimassa vain rajoitetun ajan, jolloin yritys voi ensin löytää ratkaisun ilmeiseen aukkoon ja sen jälkeen sallia sen laajemman julkistamisen. Kun reikä on tulpattu, yritys sallii sitten NDA:n löysennyksen, jotta muu maailma voi tietää viasta. Palkkionmetsästettyjen bugien tyypillinen ratkaisuaika on tiettävästi noin 15–20 päivää, kun yritys haluaa korjata sen heti, kun taas muissa tapauksissa se voi venyä 60–80 päivään. Mitä tulee palkkionmetsästäjälle maksamiseen, niin sanottuun maksuaikaan, sen jälkeen kun reiän olemassaolo on todettu, palkkiomaksujen kerrotaan olevan noin 15-20 päivän sisällä pienemmissä tapauksissa ja noin 50-60 päivää suuremmille tapauksille (nämä ovat jatkuvasti muuttuvia alan viitteitä ja mainitaan vain havainnollistavina).

Pitäisikö tekoälyn harhaanjohtavia palkkionmetsästäjiä myös pyytää osallistumaan VDP:hen ja toimimaan NDA:n kanssa?

Voit saada kyllä ​​ja ei tähän kysymykseen. Kyllä, joidenkin yritysten pitäisi mennä tälle tielle. Ei, et välttämättä valitse tätä reittiä. Tekijöitä ovat tekoälyn koko ja luonne, mahdolliset tekoälyn harha-altistukset ja joukko muita eettisiä, oikeudellisia ja liiketoiminnallisia näkökohtia, jotka tulevat esiin.

Voisin lisätä, että palkkionmetsästyspyrkimys tekoälysi harhaan on paljon suurempi määräys kuin voisit ensi silmäyksellä olettaa.

Aloitamme valtavalla mahdollisuudella, että tekoälyn ennakkoluulojen palkkionmetsästäjät hukkuvat.

Juuri nyt sinun olisi vaikea löytää monia, joilla olisi tällainen käyntikortti. Ympärillä ei ole montaa. Eletään villin lännen aikoja tässä suhteessa. Mutta jos käsitys tekoälyn ennakkoluuloista palkkionmetsästykseen tarttuu, varsinkin kun palkkiot ovat runsaat ja palkitsevat runsaasti, voit lyödä vetoa, että kaikki sukeltavat puolueellisuuden metsästyksen uima-altaaseen.

Haluatko tekoälyjärjestelmääsi kaikenlaisia ​​riffraffeja, jotka tavoittelevat tekoälyn ennakkoluuloja? Saat joitakin ottajia, jotka ovat todella asiantuntijoita tällaisessa asiassa. Saat muita ottajia, jotka ovat amatöörejä ja saattavat tehdä sotkun tai itkeä sutta. Seuraavaksi tiedät, että kuka tahansa, joka osaa kirjoittaa sanan "Artificial Intelligence", tulee kaivaamaan tekoälyjärjestelmän kultakaivoksiasi ja etsimään niitä arvokkaita tekoälyjä aiheuttavia kultahippuja. Kultakuume on käynnissä. Se ei ehkä ole hyvä sinulle.

Sinun on tutkittava palkkionmetsästäjän hakemukset. Raportoiduissa väitteissä tulee olemaan paljon "melua" siinä mielessä, että monia väitetyistä tekoälyvirheistä ei ole olemassa, vaikka palkkionmetsästäjä väittääkin löytäneensä niitä. Kuvittele, kuinka paljon työtä omien tekoälytiimesi tarvitsee tutkiakseen palkkiovaatimuksia, tutkiakseen kunkin pätevyyttä ja mahdollisesti mennäkseen edestakaisin palkkionmetsästäjän kanssa selvittääkseen, löytyikö kultaa vai ei.

Jotkut väittävät, että tämä on toinen syy tehdä koko asia itse. Saatat väistämättä huomata, että palkkio-asia on enemmän vaivaa kuin se oli sen arvoista.

Tässä on toinen kysymys pohdittavaksi. Mistä palkkionmetsästäjät tietävät, miltä tekoälyharha näyttää? Pohjimmiltaan, ilman mitään etsittävää, minkä tahansa kiiltävän kiven voitaisiin väittää osoittavan tekoälyn harhaa kaivetussa tekoälyn kultakaivoksessa.

Oletetaan, että vanhan lännen aikoina tarjosit palkkion Billy the Kidin (kuuluisan lainsuojan) vangitsemisesta. Jos teit niin etkä lisännyt kuvaa siitä, miltä Billy näytti, kuvittele kuinka paljon palkkionmetsästäjiä voisi vetää sheriffin toimistoon jonkun, jonka he toivoivat tai luulivat olevan Billy the Kid. Saatat hukkua vääriin Billy'siin. Tämä on huono asia, koska sinun pitäisi oletettavasti katsoa jokaista, kysyä tutkivia kysymyksiä ja yrittää varmistaa, oliko henkilö todella Billy vai ei.

Asia on siinä, että tekoälypoikkeamien palkkion määrittämiseksi olisi viisasta yrittää selventää, mistä tekoälypoikkeamat mielestäsi koostuvat. Tämä vaatii Goldilocks-tyyppisen kalibroinnin. Et halua olla niin rajoittava, että palkkionmetsästäjät jättävät huomioimatta tekoälyn ennakkoluuloja vain siksi, että ne eivät sovi määrittelemäsi määritelmään, etkä halua heidän huutavan "Eureka!" jokaisesta tekoälyn harhasta, jonka he mahdollisesti löytävät.

Tarvitset juuri oikean Goldilocks-tasapainon sille, mistä tekoälypoikkeamat sisältävät, ja annat siten mieluiten selkeät ohjeet siihen.

Suuri osa tästä tekoälyn harhasta palkkionmetsästystä keskittyy tekoälypohjaisiin koneoppimisjärjestelmiin (ML) ja Deep Learning (DL) -järjestelmiin. Tämä on järkevää, koska ML/DL:n leviäminen yleistyy, ja sillä näyttää olevan joitain todennäköisimpiä haasteita, jotka liittyvät tarpeettomien tekoälypoikkeamien kattamiseen.

Nämä tutkijat havaitsevat, kuinka merkittävää tekoäly harhauttaa palkkionmetsästystä, erityisesti ML/DL-kontekstissa: "Ajan mittaan ohjelmisto- ja tietoturvayhteisöt ovat kehittäneet "vikapalkkioita" yrittääkseen kääntää samanlaisen dynamiikan järjestelmäkehittäjien ja heidän kriitikkojensa välillä. (tai hakkerit) kohti interaktiivisempia ja tuottavampia tavoitteita. Toivotaan, että terveellisemmän ja nopeammin reagoiva ekosysteemi kehittyy kutsumalla tietoisesti ulkopuolisia osapuolia etsimään ohjelmisto- tai laitteistovirheitä järjestelmissään ja tarjoamalla usein rahallisia kannustimia. On luonnollista, että ML-yhteisö harkitsee samanlaista "bias bounty" -lähestymistapaa sellaisten mallien ja järjestelmien oikea-aikaiseen löytämiseen ja korjaamiseen, joissa on harhaa tai muuta ei-toivottua käyttäytymistä. Sen sijaan, että ulkopuolisia osapuolia löydettäisiin virheistä ohjelmistoista, niitä kehotetaan etsimään harhoja – esimerkiksi (demografisia tai muita) syötteiden alaryhmiä, joissa koulutettu malli ei toimi – ja niistä palkitaan” (paperissa An Algorithmic Framework for Bias Bounties”, kirjoittaneet Ira Globus-Harris, Michael Kearns ja Aaron Roth).

Tutkimuspaperissa kirjoittajat hahmottelevat ehdotetun lähestymistavan siihen, minkälaisia ​​tekoälyn harhaa palkkionmetsästäjät voivat tavoittaa. Siellä on myös osoitus siitä, kuinka arvioida palkkionmetsästäjän väitteet, jotka liittyvät näin havaittuihin väitettyihin tekoälyn harhaan. Kuten aikaisemmat huomautukseni tässä, on todennäköistä, että saat harhaanjohtavia väitteitä ja joudut erottamaan vehnän akanoista.

Ennen kuin käsittelemme lisää lihaa ja perunoita tekoälyn ennakkoluulojen metsästyksen taustalla olevista villeistä ja epämääräisistä näkökohdista, laaditaanpa joitain lisäperusasioita syvästi oleellisista aiheista. Meidän täytyy sukeltaa lyhyesti tekoälyn etiikkaan ja erityisesti koneoppimisen (ML) ja syväoppimisen (DL) tuloon.

Saatat olla hämärästi tietoinen siitä, että yksi tämän päivän kovimmista äänistä tekoälyalalla ja jopa tekoälykentän ulkopuolella on huutaminen eettisen tekoälyn suuremman vaikutelman puolesta. Katsotaanpa, mitä tarkoittaa viitata tekoälyn etiikkaan ja eettiseen tekoälyyn. Tämän lisäksi tutkimme, mitä tarkoitan puhuessani koneoppimisesta ja syvästä oppimisesta.

Eräs tietty AI Ethics -segmentti tai osa, joka on saanut paljon mediahuomiota, koostuu tekoälystä, jossa on epäsuotuisia ennakkoluuloja ja epätasa-arvoa. Saatat olla tietoinen siitä, että kun uusin tekoälyn aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Paitsi äänekäs juridinen väärinkäytösten hillitsemiseen tähtäävät pyrkimykset omaksua tekoälyn etiikka tekoälyn ilkeyden korjaamiseksi. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Tähän liittyvään ajatukseen, kannatan tekoälyn käyttämistä osana tekoälyongelmien ratkaisua ja tulen torjumista tulella tällä ajattelutavalla. Voisimme esimerkiksi upottaa eettisiä tekoälykomponentteja tekoälyjärjestelmään, joka valvoo, kuinka muu AI tekee asioita ja saa siten mahdollisesti kiinni reaaliajassa kaikki syrjivät toimet, katso keskusteluni osoitteessa linkki tähän. Meillä voisi olla myös erillinen tekoälyjärjestelmä, joka toimii eräänlaisena AI Ethics -monitorina. Tekoälyjärjestelmä toimii valvojana, joka seuraa ja havaitsee, kun toinen tekoäly on menossa epäeettiseen kuiluun (katso analyysini tällaisista ominaisuuksista linkki tähän).

Hetken kuluttua kerron teille joitain tekoälyn etiikan taustalla olevia yleisiä periaatteita. Tällaisia ​​listoja kelluu siellä täällä paljon. Voisi sanoa, että ei ole vielä olemassa yksittäistä luetteloa yleismaailmallisesta vetovoimasta ja yhteisymmärryksestä. Se on ikävä uutinen. Hyvä uutinen on, että ainakin AI Ethics -luetteloita on helposti saatavilla ja ne ovat yleensä melko samanlaisia. Kaiken kaikkiaan tämä viittaa siihen, että eräänlaisen perustellun lähentymisen avulla löydämme tiemme kohti yleistä yhteneväisyyttä siitä, mistä tekoälyn etiikka koostuu.

Käydään ensin lyhyesti läpi joitakin yleisiä eettisiä tekoälyohjeita havainnollistaaksemme, minkä pitäisi olla olennaista jokaiselle tekoälyä luovalle, harjoittelevalle tai käyttävälle.

Esimerkiksi, kuten Vatikaani totesi Rooma kutsu tekoälyn etiikkaan ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän tunnistamansa kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Varmistetaan myös, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluamme villisti spekuloida tunteva AI, tämä keskustelu voisi mennä radikaalisti eri suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (superälykkään tekoälyn mahdollisuudesta tutkimisestani, katso ks. kattavuus täällä).

Pidetään asiat maanläheisemmin ja harkitaan nykypäivän laskennallista tuntematonta tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Palataanpa nyt tekoälyn harhaa etsivään aiheeseen.

Niille teistä, jotka harkitsevat tekoälyn harhaa palkkionmetsästystä, tässä on suosittelemani seitsemän avainvaihetta, joiden avulla voit edetä parhaiten:

1) Arvioida. Arvioi tekoälyn harhaan perustuvan palkkionmetsästysyrityksen soveltuvuus olosuhteisiisi ja tekoälyjärjestelmiisi

2) Malli. Suunnittele sopiva tekoälyn harhaanjohtamistapa

3) Toteuttaa. Toteuta ja julkista tekoälyn harhaa palkkionmetsästysyrityksesi

4) Kenttä. Aseta tekoälyn harhaan liittyvät palkkiovaatimukset ja käsittele niitä vastaavasti

5) Korjata. Korjaa tai säädä tekoälyä näiden havaittujen tekoälyn harha-altistuksen mukaan

6) Säätää. Säädä tekoälyn palkkionmetsästystä tarpeen mukaan

7) Lopettaa. Lopeta tekoälyn palkkionmetsästys, kun sitä ei enää tarvita

Huomaa yllä olevien vaiheiden sarjassa, että mainitsen, että haluat oletettavasti korjata tai säätää tekoälyäsi sen perusteella, että tekoälyjärjestelmässäsi on väitetty AI-harha. Tämä on erittäin järkevää. Melkein varmasti haluat tukea kaikkia havaittuja tekoälyn vääristymiä. Ajattele oikeudellisia (ja eettisiä) seurauksia, jos et tee niin. On yksi asia väittää, että et tiennyt tekoälypoikkeaman olemassaolosta ja siksi annoit sen olemassaolon, kun taas on paljon horjuvampaa, että olet tietoinen tekoälyharhasta etkä tehnyt sille mitään.

Tekoälyn korjauksen tai säädön luonne ja aste riippuisi tietysti siitä, kuinka merkittäviä tekoälyn harha oli ja kuinka syvälle ongelmat ovat. Jos olet onnekas, ehkä vaatimaton määrä tekoälyn muutoksia korjaa tilanteen. Toinen mahdollisuus on, että saatat joutua kirjoittamaan tekoälyn kokonaan uudelleen. ML/DL-tyyppisessä tekoälyssä tämä saattaa edellyttää palaamista piirustuspöydälle ja aloittamista alusta täysin uudella tietojoukolla ja puhdistetulla ML/DL-mallilla. Olen keskustellut tekoälyn hajoamisesta tai tekoälyn tuhoamisesta mahdollisena oikeuskeinona epämiellyttävää tekoälyä vastaan, ks. linkki tähän.

Yksi pohdittava kysymys on, haluatko palkkionmetsästäjien tekevän muutakin kuin vain tunnistavan tekoälyn harhojen olemassaolon. Voit esimerkiksi makeuttaa palkkion ilmoittamalla, että myös ehdotetut korjaukset ovat tervetulleita. AI-harha löytyi palkkionmetsästäjälle voidaan maksaa yksi ilmoitettu palkinto tai palkinto. Jos palkkionmetsästäjä voi myös tarjota elinkelpoisen korjata Tekoälyharhaan he voivat sitten saada lisäpalkkion.

Jotkut väittävät, että tämä on liian kaukana oleva silta. He sanovat, että sinun pitäisi keskittyä AI-harhaan keskittyvien palkkionmetsästäjien yksinomaan tekoälypoikkeamien löytämiseen. Aiot luoda joukon ei-toivottuja haitallisia seurauksia kutsumalla heitä ehdottamaan myös korjauksia. Pidä asiat yksinkertaisina. Tavoitteena on saada mahdollisimman monta lisänäkemystä tekoälypoikkeamien havaitsemiseen, jotta voit päättää, mitä tehdä seuraavaksi. Älä muta vedet.

Vaikea näkökohta, joka on selvitettävä, liittyy palkkionmetsästäjien palkkion tai palkinnon suuruuteen, joka aidosti havaitsee tekoälyn vääristymiä. Haluat, että voitto on demonstroiva. Ilman riittävän korkeaa palkkiota et saa monia palkkionmetsästäjiä tai he eivät ole erityisen innokkaita etsimään tekoälyjärjestelmiisi liittyvää harhaa. He saattavat sen sijaan keskittyä muihin tekoälyn puolueellisuuteen liittyviin palkkiopyrkimyksiin.

Lisäksi, kuten mainittiin, haluat yrittää tukahduttaa palkkionmetsästäjien halun muuttaa tekoälyn harhaa koskevat löydöksensä muiksi kullan muodoiksi. Jos palkkio näyttää vaatimattomalta, se voi saada palkkionmetsästäjät etsimään muita korkeampia voittoja. He voivat ottaa ransomware-lähestymistavan sinua kohtaan. He saattavat ilmoittaa, että heillä on mehukas tekoälyharha, josta kilpailija haluaisi tietää ja jota he voisivat käyttää yritystäsi vastaan ​​mainostamalla, että tekoälyharha on olemassa sinun tekoälyssäsi. Siten he myyvät havaitun tekoälypoikkeaman eniten tarjoavalle. Ja niin edelleen.

Oletetaan, että jos asetat palkkion erittäin korkealle alueelle, pyydät myös mahdollisia ongelmia. Tämä voisi houkutella kaikenlaisia ​​pähkäileviä palkkionmetsästäjiä. He vuorostaan ​​saattavat tulvii sosiaaliseen mediaan utuisia väitteitä, että he ovat löytäneet monia tekoälyn vääristymiä, tekemällä niin oman itsensä edistämiseksi ja ilman, että he olisivat antaneet mitään tekoälyn ennakkoluuloja. Eräässä mielessä korotettu palkkiosi valaisee vahingossa tekoälyäsi ja saa aikaan joukon epämiellyttäviä perhosia, jotka vastaavasti houkuttelevat haitallisesti hehkuvan valonsäteen.

Toinen näkökohta koskee tekoälyn käytettävyyttä.

Palkkionmetsästysmahdollisuuden mahdollistamiseksi palkkionmetsästäjillä on oltava riittävä pääsy tekoälyllesi. Heillä ei tule olemaan paljon onnea tekoälypoikkeamien löytämisessä, jos ne on kokonaan lukittu. Mutta et halua luopua kyberturvallisuudestasi, koska se voi vaarantaa tekoälyjärjestelmäsi kokonaan.

Voit yrittää pyytää palkkionmetsästäjiä allekirjoittamaan erilaisia ​​oikeudellisesti sitovia julistuksia ja antamaan heille sitten tarvittavat käyttöoikeudet. Jotkut palkkionmetsästäjät eivät tule pitämään tällaisesta lähestymistavasta. Heidän näkemyksensä on, että he tekevät vain sen, mitä mikä tahansa julkisesti saatavilla oleva ja avoin polku sallii. He ovat ikään kuin vapaita maverikkoja, eivätkä pidä ikään kuin satulautumisesta. Jos heidät saadaan allekirjoittamaan uhkaaviin laillisiin asiakirjoihin, monet heistä välttyvät etsimästä tekoälypoikkeamia tekoälystäsi. Tai he saattavat närkästyä lailliseen haasteeseen ja päättää, että he näkevät, mitä he voivat löytää julkisilla keinoilla, ja he tekevät niin ehkä kiihkeästi halun osoittaa sinulle, kuinka haavoittuvainen olet.

Minulla on vielä yksi kulma, joka saattaa saada pääsi pyörimään.

Tekoälyä ymmärtävä palkkionmetsästäjä saattaa päättää suunnitella tekoälyjärjestelmän, joka voi tutkia tekoälyäsi ja mahdollisesti löytää tekoälyn vääristymiä. Tämä on työkaluvalmistaja, joka päättää tehdä työkalun työn suorittamiseen sen sijaan, että hän tekisi itse manuaalista työtä. Sen sijaan, että tutkisi tekoälyäsi vaivalloisesti, tekoälyyn perehtynyt palkkionmetsästäjä käyttää aikaansa keksien tekoälytyökalua, joka tekee saman asian. He käyttävät sitten tekoälytyökalua tekoälyssäsi. Kauneus on myös siinä, että he voivat oletettavasti käyttää tekoälytyökalua uudelleen kenen tahansa muun kanssa, joka tarjoaa myös palkkionmetsästysmahdollisuuden omalla tekoälyllään.

Tiedän mitä luultavasti ajattelet. Jos tekoälytyökalu voidaan suunnitella tutkimaan tekoälyn harhojen varalta, tekoälyn harhojen varalta tutkittavan tekoälyn valmistajan tulisi joko valmistaa tällainen tekoälytyökalu tai ostaa sellainen omaan käyttöönsä. Teoriassa heidän ei silloin tarvitse kamppailla koko palkkionmetsästäjän karnevaalin kanssa. Käytä vain tekoälyä löytääksesi heidän tekoälyharhansa.

Kyllä, tämä on jotain, jonka voit odottaa vähitellen ilmaantuvan. Samaan aikaan näiden ponnistelujen tukipilari koostuu todennäköisesti tekoälykehittäjistä, jotka harjoittavat palkkionmetsästystä. He saattavat käyttää erilaisia ​​työkaluja auttamaan ponnistelujaan, mutta lähitulevaisuudessa he eivät todennäköisesti yksinkertaisesti asettavat tekoälytyökalua mielettömästi päälle automaattiseksi ja ottavat torkut niin, että työkalu tekee koko tekoälyn harhaa heidän puolestaan.

Emme ole vielä siellä.

Tämän painavan keskustelun tässä vaiheessa lyön vetoa, että kaipaat havainnollistavia esimerkkejä, jotka voisivat esitellä tätä aihetta. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo mitään tekoälyn palkkionmetsästyksen käytöstä, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joita kutsutaan nimellä ADAADA
S (edistyneet kuljettajan avustamisjärjestelmät).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoälyn palkkionmetsästys

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Toivon, että se tarjoaa riittävän litaania varoituksia taustalla, mitä aion kertoa.

Kolumneissani olen jo käsitellyt pitkään bugeihin suuntautuneiden palkkionmetsästäjien käyttöä autonomisten ajoneuvojen ja itseohjautuvien autojen maailmassa. Tämä lähestymistapa on todellakin toteutunut tällä markkinaraolla. On tavallista keskustelua siitä, onko se hyvä idea vai ei. Pyrkimykset ovat yleensä olleet luonteeltaan rajallisia, usein suhteellisen hiljaisia.

Samoin keskustelu voi syntyä, kun painopiste siirtyy tekoälyn harhaan etsimiseen sen sijaan, että etsittäisiin järjestelmävirheitä sinänsä. Jotkut ehdottavat, että se on helvettiä, jos teet niin, perkele, jos et ymmärrä.

Tässä on miksi.

Ensinnäkin on selvää, että on monia tapoja, joilla itseohjautuvat ajoneuvot ja itseohjautuvat autot joutuvat alttiiksi tekoälypoikkeamille. Katso kattamukseni osoitteessa linkki tähän ja linkki tähän, nimetäkseni muutamia. Autonvalmistajat ja itse ajavia autoja valmistavat yritykset näyttäisivät viisaalta yrittää estää näitä tekoälyharjoituksia esiintymästä tekoälyjärjestelmissään. Oikeudellinen ja eettinen myrsky tällaisia ​​yrityksiä vastaan ​​on epäilemättä kova.

Onko tekoälyn harhaanjohtavan palkkionmetsästysyrityksen käyttö sopiva lähestymistapa tähän erityiseen kontekstiin?

Yksi vastaus on, että kyllä, tämä on kätevä ja tarjoaa runsaasti "ilmaisia" uusia silmiä, joiden avulla voit yrittää saada kiinni itseohjautuvan tekoälyauton tai vastaavan upotettuihin tekoälyyn. Suurin osa itseohjautuvia autoja rakentavista tekoälykehittäjistä valmistaa tekoälyä, joka voi turvallisesti ajaa autoa paikasta A paikkaan B. He ovat kiinnostuneita tuosta ydinkyvystä, eikä heillä ole aikaa eikä huomiota mahdollisiin tekoälypoikkeamiin. heidän tekoälynsä.

Toinen vastaus on, että ei. Itseohjautuvien ajoneuvojen ja itseohjautuvien autojen palkkionmetsästyksen sallimista millä tahansa perusteella, olipa kyse virheistä tai tekoälyharhoista, pitäisi vain välttää ankarasti. Väite on, että nämä ajoneuvot ja niiden tekoäly ovat elämän tai kuoleman kaliiperia. Tekoälyn sotkeminen millään tavalla voi olla jollain tapaa tuhoisaa tekoälylle ja vaikuttaa tekoälyn ohjausjärjestelmän toimintaan.

Vasta-argumentti tälle viimeiselle seikalle on, että palkkionmetsästäjien oletetaan olevan kykenemättömiä muuttamaan tutkimaansa tekoälyä. Näin ollen ei ole vaaraa, että ne sekoittavat tekoälyn ja saavat tekoälyn tässä yhteydessä yhtäkkiä muuttumaan hulluksi tekoälyjärjestelmäksi. Palkkionmetsästäjillä on vain luku -oikeus. Niiden salliminen mennä pidemmälle olisi tyhmää ja valtava virhe.

Vasta-argumentti tälle vasta-argumentille on se, että kun sallit palkkionmetsästäjien tutkia tekoälyäsi ja rohkaisemme niitä, koko asiasta tulee arka. Palkkionmetsästäjät saattavat keksiä tapoja hyödyntää löydettyjä vikoja tai harhoja. Nämä hyväksikäytöt voivat puolestaan ​​olla vääriä tarkoituksia. Sinun olisi parempi olla kutsumatta "murtovarkaita" kotiisi niin sanotusti. Kun nivel on purettu, joudut lopulta vaikeuksiin.

Niille, joiden tekoälyjärjestelmät ovat pienempiä kuin elämä tai kuolema, uskovat, että pieleen menneen palkkionmetsästyksen vaikutukset ovat paljon vähemmän riskialttiita. Ehkä niin. Toisaalta, jos yritys on kaatanut rahansa tekoälyjärjestelmään, jonka palkkionmetsästäjät onnistuvat anastamaan, voit olettaa, että mainevahingot ja muut mahdolliset vahingot vahingoittavat silti.

Ei ole ilmaista lounasta, kun kyse on tekoälyn puolueellisesta palkkionmetsästä.

Pikainen loppuhuomautus toistaiseksi.

Kun pahamaineista lainsuojatonta Jesse Jamesia etsittiin vanhan lännen aikana, painettiin "Wanted" -juliste, joka tarjosi 5,000 XNUMX dollarin palkkion hänen vangitsemisestaan ​​(jossa kerrottiin "kuolleeksi tai elossa"). Se oli siihen aikaan melko suuri rahasumma. Yksi hänen omasta jengistään päätti ampua Jessen kuoliaaksi ja noutaa palkinnon. Luulen, että se osoittaa, kuinka tehokas palkkio voi olla.

Onko tekoälyn harhaanjohtavien palkkionmetsästäjien käyttö hyvä asia vai onko se huono asia?

Jos päätät aloittaa tekoälyn ennakkoluuloton palkkionmetsästäjäyrityksen, suosittelen, että pidät silmäsi auki ja katsot koko ajan olkapääsi yli. Tämä on järkevää sinulle ja tekoälyllesi. Koskaan ei tiedä, mitä voi tapahtua, mukaan lukien se, että taitava palkkionmetsästäjä lisää jollain tapaa piilossa tekoälyn harhaa tekoälyäsi ja huutaa maailmalle, että he ovat löytäneet häikäilemättömän tekoälypoikkeaman tekoälyssäsi. Ehkä he tekivät sen röyhkeänä ja ylimitoitettuna yrityksenä hakea palkkiota ja julistaakseen itsensä sankariksi, joka sai pohjimmiltaan kehutun Jesse Jamesin.

Kun ajattelee sitä, tunteva tekoäly ei luultavasti pidä ajatuksesta hämmentävästä kuolleesta tai elävästä järjestelystä, jota voisi ikävästi spekuloida.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- eettisesti-pahat-täysin-autonomiset-järjestelmät-on-varovaista-tai-turhaa/