Tekoälyn etiikka kamppailee väistämättömien tekoälyonnettomuuksien kanssa, jotka uhkaavat myös itsenäisiä itseajavia autoja

Tunnetko kenties jonkun, joka näyttää olevan erityisen tapaturma-altis?

Näyttää siltä, ​​​​että me kaikki teemme.

Ehkä henkilö on sitä tyyppiä, joka on taipuvainen liukumaan banaanin kuoren päälle tai kaatamaan kallisarvoisen maljakon olohuoneessasi. Ne ovat ihmismagneetti jonkinlaisille onnettomuuksille. Se voi olla niin paha, että et jopa inhoa ​​olla heidän lähellään toisinaan. Saatat saada pahaenteisen ylivuodon tai kärsiä jonkun heidän epämiellyttävästä onnettomuudesta.

Mutta ehkä olemme liian ankaria vihjaessamme, että joku on alttiimpi onnettomuuksille kuin muut. Voidaan väittää, että onnettomuuksia voi tapahtua kenelle tahansa meistä. Olemme kaikki alttiita mahdolliselle onnettomuudelle tai sekaantumiselle onnettomuuteen. Parhaat meistä mukaan lukien.

Kasataan tämän keskustelun päälle vielä yksi kiusallinen kysymys.

Ovatko onnettomuudet väistämättömiä?

Toisin sanoen, vaikka kuinka kovasti yrittäisimme ehkäistä onnettomuuksia, voi kuitenkin olla, että silti on olemassa mahdollisuus ja lopullinen varmuus siitä, että onnettomuuksia tapahtuu. Voit yrittää suojella maailmaa onnettomuuksilta. Se vaikuttaa epäilemättä järkevältä. Mutta tavalla tai toisella, onnettomuudet nostavat silti ruman päänsä.

Kuten sanotaan, onnettomuudet odottavat tapahtuvansa.

Saattaa olla hyödyllistä selventää, mitä tarkoitetaan viittaamalla johonkin tapahtumaan asianmukaisesti onnettomuudeksi. Tavallinen sanakirjamääritelmä on, että onnettomuus on odottamatta ja tahattomasti sattuva tapahtuma, jonka seurauksena on valitettava tulos, joka koostuu vahingon tai loukkaantumisen vaikutuksesta.

Pura tämä määritelmä tietoisesti.

Mainittu tapaus on odottamaton. Tämä tarkoittaa, että emme näyttäneet ymmärtävän, että itse onnettomuus tapahtuisi.

Mainittu tapaus on tahaton. Tämä viittaa siihen, että meidän pitäisi sulkea pois olosuhteet, joissa joku tarkoituksella halusi saada tapahtuman tapahtumaan. Jos pilailija laittaa banaaninkuoren lattialle paikkaan, jossa hän tietää epäonnisen ja aavistamattoman viattoman astuvan, sinun on vaikea väittää, että siihen kompastuva henkilö on joutunut onnettomuuteen. Heidät sen sijaan huijattiin ja johdettiin salakavalasti ansaan.

Määritelmä sisältää myös kriteerin, että tulos on valitettava. Onnettomuuden tässä valossa täytyy johtaa happamaan lopputulokseen. Henkilö, joka vahingossa kaatoi maljakon, on haljennut ja mahdollisesti vaurioittanut nautitun tuotteen korjauskelvottomaksi. Maljakon omistaja kärsii arvon menetyksestä. Maljakkoon törmännyt henkilö saattaa nyt olla omistajalle velkaa menetyksestä. Varjelkoon taivas, että joku olisi joutunut leikkautumaan tai romuttumaan maljakon rikkoutuessa.

Tasapainon vuoksi saatamme haluta huomioida, että on myös niin sanottuja "hyviä" onnettomuuksia. Tapaturman seurauksena henkilö voi joutua suureen omaisuuteen tai kerätä muuta elintärkeää hyötyä. Yksi eniten siteeratuista esimerkeistä on Sir Alexander Fleming ja hänen kehuttu penisilliinilöytö. Tarina kertoo, että hän oli hieman huolimaton laboratoriossaan ja palattuaan kahden viikon lomalta löysi yhdeltä viljelylevystään homeen. Hän kertoi sanoneen asiasta näin: ”Joskus löytää sen, mitä ei etsi. Kun heräsin heti aamunkoittoon 28. syyskuuta 1928, en todellakaan suunnitellut mullistavani kaikkea lääketiedettä löytämällä maailman ensimmäisen antibiootin tai bakteerin tappajan. Mutta luulen, että juuri niin tein."

Jätämme suotuisat onnettomuudet sivuun ja keskitymme tässä synkiin onnettomuuksiin. Onnettomuuksien rypistyneet kasvot ovat tilanne, jossa nämä haitalliset seuraukset voivat olla erityisen hengenvaarallisia tai niillä voi olla raskaita seurauksia. Mahdollisuuksien mukaan ne onnettomuudet, jotka haluamme minimoida (ja tietysti nousevat onnettomuudet, jotka haluaisimme maksimoida, jos se on mahdollista, vaikka käsittelen tuon hymiökannan muunnelman myöhemmässä sarakkeessa).

Haluaisin muotoilla hieman uudelleen aikaisemman kysymyksen onnettomuuksien väistämättömyydestä. Toistaiseksi olemme kiinnittäneet huomiomme onnettomuuksiin, jotka tapahtuvat yksittäisen henkilön tapauksessa. Ei ole epäilystäkään siitä, että onnettomuudet voivat vaikuttaa myös useisiin ihmisiin kerralla. Tämä voidaan kohdata erityisesti silloin, kun ihmiset ovat uppoamassa tavalla tai toisella monimutkaiseen järjestelmään.

Valmistaudu muunnelmaan aiemmin kellutusta kysymyksestä.

Ovatko järjestelmäonnettomuudet väistämättömiä?

Meidän pitäisi pohtia tätä.

Oletetaan, että tehdaslattia on rakennettu autojen osien valmistamiseksi. Tehtaan suunnittelijat ovat sanotaanko erittäin huolissaan mahdollisista työtapaturmista. Tehdastyöntekijöiden on käytettävä kypärää aina. Tehtaan kyltit kehottavat varomaan onnettomuuksia ja olemaan varovaisia ​​työssäsi. Kaikenlaisia ​​varotoimia ryhdytään onnettomuuksien välttämiseksi.

Tässä järjestelmässä voimme toivoa, että kukaan ei koskaan joudu onnettomuuteen. Uskotko, että onnettomuuden todennäköisyys on nolla? Uskaltaisin väittää, ettei kukaan järkevä ajattelija lyö vetoa siitä, että onnettomuuden mahdollisuus on tässä tapauksessa nolla. Onnettomuuden todennäköisyys voi olla todella pieni, mutta silti tiedämme ja oletamme, että kaikista varotoimista huolimatta on olemassa pieni riski onnettomuuden tapahtumiseen.

Kaikki tämä viittaa siihen ajatukseen, että riittävän monimutkaisessa järjestelmässä meidän on pakko uskoa, että onnettomuuksia tapahtuu silti, riippumatta siitä, kuinka kovasti yritämme estää niitä. Tuemme vastahakoisesti sitä vaatimusta, että järjestelmäonnettomuudet ovat todellakin väistämättömiä. Tämän kaliiperin suurenmoisessa lausunnossa voi olla varoitus, että järjestelmän tulee olla niin monimutkainen, että on käytännössä mahdotonta kattaa kaikkia perusteita onnettomuuksien estämiseksi kokonaan.

Sinut on nyt esitelty siististi askel askeleelta laajalti hahmoteltuun teoriaan onnettomuuksista, jotka voidaan kutsua normaaleiksi onnettomuuksiksi tai normaaliksi onnettomuusteoriaksi (NAT). Tässä on kätevä kuvaus tutkijoilta, jotka ovat tutkineet tätä käsitystä: "Riittävän suuressa mittakaavassa mikä tahansa järjestelmä tuottaa "tavallisia onnettomuuksia". Nämä ovat väistämättömiä onnettomuuksia, jotka johtuvat monimutkaisuuden, komponenttien välisen kytkennän ja mahdollisten haittojen yhdistelmästä. Normaali onnettomuus eroaa tavallisimmista komponenttivaurioonnettomuuksista siinä, että normaaliin onnettomuuteen johtaneet tapahtumat ja vuorovaikutukset eivät ole järjestelmän käyttäjien käsittämiä” (kuten Robert Williamsin ja ”Tekoälyvirheiden ymmärtäminen ja välttäminen: käytännön opas” on todettu Roman Yampolskiy, filosofiat päiväkirja).

Syy, miksi olen tuonut sinut ns normaaleja onnettomuuksia on, että meidän on ehkä sovellettava tätä teoriaa huolellisesti johonkin, joka on vähitellen ja väistämättä yleistymässä yhteiskunnassamme, nimittäin tekoälyn (AI) tuloon.

Kaivetaan tähän.

Jotkut ihmiset olettavat virheellisesti, että tekoäly tulee olemaan täydellisyyttä. Tekoälyjärjestelmät eivät tee virheitä eivätkä joudu vaikeuksiin, spekuloidaan. Sinun tarvitsee vain varmistaa, että nämä tekoälykehittäjät tekevät tarpeeksi hyvää työtä, ja voila, tekoäly ei koskaan tee mitään, mikä voitaisiin tulkita vahingossa tai onnettomuuden aiheuttajana.

Ei niin nopeasti tuon hypoteettisen uskomuksen suhteen. Jos olet valmis ostamaan teorian normaaleja onnettomuuksia, mikä tahansa monimutkainen tekoäly aiheuttaa väistämättä onnettomuuden. Riippumatta siitä, kuinka paljon tekoälykehittäjät tekevät myöhäisillan puuhasteluja estääkseen onnettomuuden, tekoäly joutuu varmasti jossain vaiheessa onnettomuuteen. Näin keksi murenee. Eikä ole hengähdystaukoa itkemällä siitä vuotaneessa maidossamme.

Pohdi tekoälyn sekoitusta ja sen käsitteellisiä periaatteita normaaleja onnettomuuksia.

Kuvittele, että meillä on tekoälyjärjestelmä, joka hallitsee ydinaseita. Tekoäly on suunniteltu huolellisesti. Jokainen ajateltavissa oleva tarkistus ja tasapaino on koodattu tekoälyjärjestelmään. Olemmeko turvassa tekoälyyn perustuvalta onnettomuudelta, joka saattaa tapahtua? Ne, jotka tukevat normaalia onnettomuusnäkökulmaa, sanoisivat, että emme ole aivan niin turvallisia kuin voisi olettaa. Koska tekoäly on todennäköisesti erityisen monimutkainen, normaali onnettomuus odottaa hiljaa siellä ilmaantuvansa joskus, ehkä pahimmalla mahdollisella hetkellä.

Noiden vaikeiden kysymysten ja epäilyjen ydin on, että meidän on oltava varpaillamme siitä, että tekoäly on väistämättä onnettomuuksia täynnä, ja ihmiskunnan on tehtävä jotain järkevää ja ennakoivaa mahdollisia vaaroja vastaan. Kuten näet hetken tai parin kuluttua, tämä on uhkaava harkinta tekoälyn käytössä, ja tekoälyn etiikka ja eettinen tekoäly painivat melkoisesti siitä, mitä tehdä. Jatkuva ja laaja kattavuus tekoälyn eettisyydestä ja eettisestä tekoälystä, katso linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Ennen kuin menemme kaninkoloon, varmistamme, että olemme samalla sivulla tekoälyn luonteesta. Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluamme villisti spekuloida tunteva AI, tämä keskustelu voisi mennä radikaalisti eri suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on kognitiivinen vastine ihmiselle, joka antaa sinulle neuvoja. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (superälykkään tekoälyn mahdollisuudesta tutkimisestani, katso ks. kattavuus täällä). Kaikille kerrottu, että nämä skenaariot nostaisivat lähteen arviointia.

Pidetään asiat maanläheisemmin ja harkitaan nykypäivän laskennallista tuntematonta tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat tuntua samanlaisilta kuin ihmisen kyvyt, mutta todellisuus on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

Saatat olla tietoinen, että kun tekoälyn uusin aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Paitsi äänekäs juridinen väärinkäytösten hillitsemiseen tähtäävät pyrkimykset omaksua tekoälyn etiikka tekoälyn ilkeyden korjaamiseksi. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Tähän liittyvään ajatukseen, kannatan tekoälyn käyttämistä osana tekoälyongelmien ratkaisua ja tulen torjumista tulella tällä ajattelutavalla. Voisimme esimerkiksi upottaa eettisiä tekoälykomponentteja tekoälyjärjestelmään, joka valvoo, kuinka muu AI tekee asioita ja saa siten mahdollisesti kiinni reaaliajassa kaikki syrjivät toimet, katso keskusteluni osoitteessa linkki tähän. Meillä voisi olla myös erillinen tekoälyjärjestelmä, joka toimii eräänlaisena AI Ethics -monitorina. Tekoälyjärjestelmä toimii valvojana, joka seuraa ja havaitsee, kun toinen tekoäly on menossa epäeettiseen kuiluun (katso analyysini tällaisista ominaisuuksista linkki tähän).

Kaiken kaikkiaan yleinen toive on, että luomalla käsityksen tekoälyn eettisistä ohjeista pystymme ainakin lisäämään yhteiskunnan tietoisuutta siitä, mitä tekoäly voi sekä hyödyttää että voi myös tuottaa haitallisesti. Olen keskustellut laajasti erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman sarjan, jossa tutkittiin ja tiivistettiin lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden ydintä artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Meidän on ehkä lisättävä kehuttuihin tekoälyn etiikkaluetteloihin, joita meidän on nimenomaisesti harkittava ja ryhdyttävä avoimiin toimiin tekoälypohjaisen toiminnan estämiseksi tai ainakin jyrkästi vähentämiseksi. normaaleja onnettomuuksia joka saattaa tapahtua. Tekoälyä kehittävien on tehtävä parhaansa tällä alalla. Tekoälyä käyttävien on tehtävä samoin. Tekoälyä käyttävien tai jollain tapaa joutuneiden tulee olla varovaisia ​​ja varoa tekoälyonnettomuuksien mahdollisuutta, joita näennäisesti tapahtuu.

Saatat tuntea houkutusta ajatella, että tekoälyyn voidaan rakentaa tarpeeksi varotoimia, jotta onnettomuuden mahdollisuus putoaa nollaan. Niille, jotka ovat teknikot, tavallinen hämmennys on, että jos jokin tekniikka voi aiheuttaa ongelman, toinen tekniikka voi varmasti ratkaista ongelman. Heitä vain lisää ja lisää tekniikkaa, kunnes ongelma poistuu.

Ne, jotka ovat tutkineet järjestelmäkohtaisia ​​onnettomuuksia, olisivat yleensä eri mieltä ja vastaisivat kohteliaasti oletettuun tekniikan mahtipontisuuteen esittämällä kannan, joka tunnetaan nimellä Swiss Cheese Model (SCM): "SCM:ssä turvallisuuskerrokset mallinnetaan siivuiksi juustoa, jossa on reikiä, jotka edustavat heikkoja kohtia jokaisessa turvallisuuskerroksessa. Ajan myötä reiät muuttavat muotoaan ja liikkuvat. Lopulta riippumatta siitä kuinka monta juustoviipaletta (turvakerroksia) on, reiät asettuvat kohdakkain mahdollistaen suoran laukauksen kaikkien juustoviipaleiden läpi (tapahtuu onnettomuus)” (aiemmin siteeratun Robert Williamsin ja Roman Yampolskiyn paperin mukaan ).

En halua juuttua tähän sivutangenttiin siitä, onko olemassa taattua tapaa ohjelmoida tekoäly täysin ja aina välttämään onnettomuuden mahdollisuus. Kaikenlaisia ​​matemaattisia ja laskennallisia todistelumenetelmiä kokeillaan. Mielestäni on järkevää ja oikeudenmukaista todeta, että meillä ei ole nykyään skaalautuvaa työskentelymenetelmää eikä tekniikoita, jotka voisivat taata tällaisen nollamahdollisuuden, ja lisäksi meillä on ehdottomasti tonnia tonneja tekoälyä, jota tuotetaan hämmentävästi. tiedä varmasti, ei ole pyrkinyt noudattamaan tällaisia ​​käytäntöjä. Tämä jälkimmäinen seikka on ratkaisevan tärkeä, sillä vaikka voisimmekin keksiä jotain tekoälylaboratoriossa, sen skaalaaminen miljardeihin villiin ja huolettomiin tekoälypyrkimyksiin, jotka ovat käynnissä ja jotka tulevat esiin edelleen, on oksainen ongelma, eikä sitä todennäköisesti ratkaista, vaikka laskennallinen todistelukone olisi hopeaa. luoti oli olemassa.

Toinen seikka, joka mielestäni ansaitsee lyhyen mainitsemisen, on tekoäly, joka on muutettu epäsuotuisiksi teoiksi ilkeiden ihmistoimijoiden seurauksena. En aio sijoittaa näitä tapauksia tekoäly-onnettomuuksien maailmaan. Muista, että avauskeskustelu ehdotti, että sanakirjan määritelmä onnettomuudesta oli tapaus tahaton luonto. Jos ihmisen kyberrikollinen onnistuu saamaan tekoälyjärjestelmän tekemään pahoja asioita, en luokittele tekoälyä joutuneeksi onnettomuuteen. Luotan, että hyväksyt tämän olettamuksen.

Mielenkiintoinen kysymys nousee esiin siitä, kuinka paljon erilaisista tekoälyn epäsuotuisista toimista voidaan katsoa johtuvan puhtaasti tekoälyonnettomuudesta verrattuna kyberrikollisen vilpilliseen tekoon. Joidenkin olemassa olevien tekoälytapausten raportointitietokantojen mukaan näyttää siltä, ​​että tekoäly-onnettomuuksia tapahtuu enemmän kuin ilkeästi kannustettuja tapauksia, vaikka sinun on otettava tämä käsitys mojovaan annokseen suolaa. Sanon tämän, koska on suuri kiusaus olla ilmoittamatta, milloin tekoälyjärjestelmää vastaan ​​on hyökätty, ja ehkä olla hieman halukkaampi raportoimaan, kun tekoälyonnettomuus tapahtuu.

Meidän on keskusteltava tekoäly-onnettomuuksia koskevasta erittäin tärkeästä huomautuksesta.

Tunnuslauseen "AI-onnettomuudet" käyttäminen on yleensä ei-toivottavaa ja aiheuttaa melkoisen sotkun meille kaikille, mikä tarkoittaa koko yhteiskuntaa. Kun ihmiselle sattuu onnettomuus, kohautamme olkapäitään usein ja tunnemme myötätuntoa onnettomuuden joutuneelle. Näytämme käsittelevän sanaa "onnettomuus" ikään kuin se tarkoittaisi, ettei kukaan ole vastuussa tapahtuneesta.

Otetaan esimerkki auto-onnettomuuteen joutumisesta. Yksi auto heilahtaa leveäksi oikealle kääntyessä ja törmää vahingossa toiseen suoraan eteenpäin ajavaan autoon. Hups, se oli vain onnettomuus ja sattui vahingossa. Ne, jotka eivät olleet osallisena tapaukseen, saattavat antaa asian luisua, jos tapahtumaa kuvataan pelkkänä sattumana.

Minulla on kuitenkin sellainen tunne, että jos olisit törmäyksen saaneessa autossa, et olisi niin sympaattinen liian leveän käännöksen tehnyt kuljettajalle. Mielipiteesi olisi varmasti se, että toinen kuljettaja oli surkea kuljettaja ja että joko näennäisesti laiton tai järjetön ajotapa johti kolariin. Merkitsemällä tapahtuman "onnettomuudeksi" juuttunut kuljettaja on nyt jossain määrin epäedullisessa asemassa, koska näyttää siltä, ​​että kaikki tapahtui pelkän sattuman kautta, eikä sekaannuneen kuljettajan käsien kautta.

Itse asiassa sana "onnettomuus" on niin täynnä vaihtelevia konnotaatioita, että yleisesti ottaen hallituksen kolaritilastot viittaavat asiaan autojen törmäyksinä tai kolareina sen sijaan, että käytettäisiin ilmaisua auto-onnettomuudet. Auton törmäyksellä tai kolarilla ei näytä olevan vaikutusta tapauksen syntymiseen. Samaan aikaan ilmaus "auto-onnettomuudesta" saa meidät melkein ajattelemaan, että se oli kohtalon omituisuus tai jollain tavalla ihmiskunnan käsien ulkopuolella.

Voit nähdä runsaasti, kuinka tämä konnotaatio tulee esiin, kun viitataan tekoälyonnettomuuksiin. Emme halua tekoälykehittäjien piiloutuvan konnotaatiokilven taakse, jonka mukaan tekoäly vain vahingossa aiheutti jollekin vahinkoa. Sama koskee niitä, jotka käyttävät tekoälyä. Voit väittää, että "AI-onnettomuudet" ilmaisu on melkein tekoälyn antropomorfointia, joka johtaa yhteiskunnan harhaan antamalla tekoälyn kulissien takana olleille ihmisille mahdollisuuden paeta vastuuvelvollisuutta. Katso keskusteluni osoitteesta keskusteluni ihmisten pitämisen vastuullisuudesta tekoälystään tämä linkki täällä ja tämä linkki täällä.

Aion tästä lähtien käyttää tekoälyonnettomuuksien tunnuslausetta, mutta teen sen vastahakoisesti ja vain siksi, että se on tavanomainen tapa viitata tähän ilmiöön. Yritykset ilmaista tämä eri tavalla ovat yleensä valitettavasti paisuneempia eivätkä ole yhtä helposti luettavia. Varmista, että tulkitset tunnuslauseen tavalla, joka ei saa sinut katsomaan toiseen suuntaan etkä ymmärrä, että tekoälyn taustalla olevat ihmiset ovat syyllisiä, kun tekoäly menee pieleen.

Havainnollistaaksemme todennäköistä sekaannusta tai harhaanjohtavia näkökohtia, jotka liittyvät tekoälyyn viittaamiseen onnettomuuksien uhriksi, voimme palata huomautuksiini maljakon kaatamisesta. Harkitse tätä esimerkkiä tekoälystä: "Tämä ongelma liittyy asioihin, jotka tekoäly tekee vahingossa tai välinpitämättömyydestä. Yksi esimerkki tästä on maljakon kaatava siivousrobotti. Monimutkaisissa ympäristöissä on niin monenlaisia ​​"maljakoita", että emme todennäköisesti pysty ohjelmoimaan rangaistusta kaikista sivuvaikutuksista" (Robert Williamsin ja Roman Yampolskiyn paperin mukaan).

Tekoälyjärjestelmä, joka otetaan käyttöön kotitaloudessa ja sitten "vahingossa" kaataa maljakon, näyttäisi viittaavan siihen, että ketään ei pitäisi syyttää tästä tekoälyn haitallisesta toiminnasta. Se oli vain onnettomuus, jota voisi valitettavasti tuomita. Toisaalta meidän pitäisi oikeutetusti kysyä, miksi tekoälyjärjestelmää ei ohjelmoitu käsittelemään maljakkotilannetta yleensä. Vaikka tekoälykehittäjät eivät odottaneet maljakon sellaisenaan kuuluvan kohdatavien kohteiden piiriin, voimme varmasti kysyä, miksi ei ollut olemassa jotakin yleistä esineiden välttämistä, joka olisi estänyt tekoälyjärjestelmää kaatumasta maljakko (täten tekoäly ei välttämättä luokittele maljakkoa maljakoksi, mutta olisi silti voinut välttää sen havaittavissa olevana vältettävänä esineenä).

Olen ennustanut ja ennustan edelleen, että olemme vähitellen menossa kohti valtavaa oikeudellista taistelua sellaisten tekoälyjärjestelmien syntymisestä, jotka joutuvat "AI-onnettomuuksiin" ja aiheuttavat jonkinlaista haittaa. Toistaiseksi yhteiskunta ei ole reagoinut millään mittakaavalla tavalla markkinoille työnnetyn tekoälyn lailliseen hylkäämiseen, joka aiheuttaa kielteisiä seurauksia, joko tarkoituksella tai tahattomasti. Nykypäivän tekoälyn kelkka, josta on tullut puolikypsäisten tekoälyn tekijöiden kultaryntäys, ja ne, jotka toteuttavat tekoälyn nopeaa käyttöönottoa, ovat nyt onnekkaita ja pysyvät suhteellisen koskemattomina siviilioikeudenkäynneistä ja rikosoikeudellisista syytteistä.

Tekoälyn aiheuttama oikeudellinen vastareaktio on tulossa, ennemmin tai myöhemmin.

Jatketaan, kuinka yritämme selviytyä niin kutsuttujen tekoäly-onnettomuuksien väistämättömyydestä?

Yksi asia, jonka voimme tehdä heti, on yrittää ennakoida, kuinka tekoälyonnettomuuksia voi tapahtua. Ennakoimalla tekoälyonnettomuuksia voimme ainakin yrittää keksiä keinoja rajoittaa niitä tai minimoida niiden sattumisen todennäköisyys. Lisäksi voimme yrittää laittaa paikoilleen suojakaiteet, jotta tekoäly-onnettomuuden sattuessa ilmeisen haitan mahdollisuus pienenee.

Hyödyllinen joukko tekijöitä, jotka kuvattiin aiemmin lainatussa tutkimusartikkelissa Tekoälyvirheiden ymmärtäminen ja välttäminen: Käytännön opas sisältää nämä ominaisuudet (kuten lainattu tutkimuspaperista):

  • Järjestelmä, johon tekoälyn lähdöt vaikuttavat.
  • Aikaviive tekoälytulosten ja suuremman järjestelmän välillä, järjestelmän havaittavuus, ihmisen huomion taso ja käyttäjien kyky korjata tekoälyn toimintahäiriöt.
  • Suurin mahdollinen vahinko tekoälyn ohjaamien järjestelmien haitallisesta käytöstä.
  • Tekoälyn läheisyydessä olevien komponenttien kytkentä ja vuorovaikutusten monimutkaisuus.
  • Tietovaje tekoälystä ja muista käytetyistä teknologioista ja järjestelmän energiatasosta.

Tämän raskaan keskustelun tässä vaiheessa lyön vetoa, että kaipaat havainnollistavia esimerkkejä, jotka voisivat selventää tekoälyonnettomuuksien aihetta entisestään. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo mitään niin sanottujen tekoäly-onnettomuuksien tulosta, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoälytapaukset

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Luotan siihen, että se tarjoaa riittävän litanian varoituksia, jotka tukevat sitä, mitä aion kertoa.

Olemme nyt valmiita sukeltamaan syvälle itseohjautuviin autoihin ja eettisiin tekoälymahdollisuuksiin, joihin liittyy niin kutsuttujen tekoälyonnettomuuksien tulo.

Kuvittele, että tekoälypohjainen itseajava auto on käynnissä naapurustosi kaduilla ja näyttää ajavan turvallisesti. Aluksi olit kiinnittänyt erityistä huomiota jokaiseen kertaan, kun onnistuit näkemään vilauksen itseohjautuvasta autosta. Autonominen ajoneuvo erottui joukosta elektronisilla antureilla, jotka sisälsivät videokameroita, tutkayksiköitä, LIDAR-laitteita ja vastaavia. Useiden viikkojen itseohjautuvan auton risteilyn jälkeen paikkakunnallasi et enää huomaa sitä. Sinun mielestäsi se on vain toinen auto jo ennestään vilkkaalla yleisellä tiellä.

Jotta itseohjautuvien autojen näkemiseen ei luulisi olevan mahdotonta tai epätodennäköistä tutustua, olen kirjoittanut usein siitä, kuinka itseohjautuvien autojen kokeilujen piirissä olevat paikkakunnat ovat vähitellen tottuneet näkemään koristeltuja ajoneuvoja. Monet paikalliset siirtyivät lopulta suuhunsa ammottavasta ihastuttavasta haukotuksesta nyt levittävään tylsyyden haukotteluun nähdäkseen kiemurtelevia itseohjautuvia autoja.

Todennäköisesti suurin syy tällä hetkellä siihen, että he saattavat huomata autonomiset ajoneuvot, johtuu ärsytys- ja kiihtyvyystekijästä. Tekoälyjärjestelmät varmistavat, että autot noudattavat kaikkia nopeusrajoituksia ja liikennesääntöjä. Hektiset ihmiskuljettajat perinteisissä ihmisvetoisissa autoissaan ärsyyntyvät toisinaan, kun jäävät tiukasti lainkuuliaisten tekoälyyn perustuvien itseohjautuvien autojen taakse.

Se on jotain, johon meidän kaikkien on ehkä totuttava, oikeutetusti tai väärin.

Takaisin tarinaamme.

Eräänä päivänä itseajava auto joutuu onnettomuuteen.

Tekoälyn ajojärjestelmä heilautti itseohjautuvaa ajoneuvoa leveästi käännettäessä oikealle ja törmäsi ihmisen ohjaamaan autoon. Ihmisen kuljettama auto ajoi suoraan eteenpäin oikealla liikennekaistalla. Ihmiskuljettajalla ei ollut erityistä mahdollisuutta väistää tai välttää törmäystä. Lisäksi itseohjautuva auto ei antanut varoitusta tai merkkiä siitä, että se aikoi tehdä laajan oikean käännöksen.

Onko tämä onnettomuus?

Voimme varmasti sanoa, että se sisältyy tekoälyonnettomuuden rubrikkaan. Perusta tällaiselle väitteelle on, että itseajavan auton ratissa oli tekoälyjärjestelmä. Jostain syystä tekoäly päätti tehdä leveän käännöksen oikealle kääntyessään. Seurauksena oli, että itseajava auto törmäsi ihmisen ohjaamaan autoon.

Muista aikaisempi keskustelu sanaan "onnettomuus" liittyvistä konnotaatioista ja katso, kuinka sellaiset pohjasävyt tulevat esiin tässä skenaariossa. Muista myös, että keskustelimme tapauksesta, jossa ihmiskuljettaja teki leveän oikean käännöksen ja törmäsi toverien ajamaan autoon. Ymmärsimme, että käsitys tämän teon olevan "onnettomuus" on harhaanjohtava ja hämmentävä. Leveän heilahduksen tehnyt ihmiskuljettaja saattoi piiloutua sen ajatuksen taakse, että onnettomuus tapahtui vain sattumalta tai kohtalon oikkuista.

Sen sijaan, että leimaaisimme skenaariota "AI-onnettomuudeksi", jos tekoälypohjainen itseajava auto menee leveäksi ja törmäsi ihmisen ohjaamaan autoon, meidän pitäisi ehkä sanoa, että kyseessä oli autokolari tai auton törmäys, johon liittyi itseohjautuva auto. ajoauto ja ihmisen kuljettama auto. Voimme sitten luopua tyhjästä sekaannuksesta, jonka mukaan se on tuntemattomien keinojen sattuma.

Millainen yleisön reaktio tapahtumaan olisi mielestäsi?

No, jos autonvalmistaja tai itse ajava teknologiayritys voi pitää asian leimaamisesta onnettomuudeksi, he saattavat pystyä kiertämään yhteisön mahdollisen vastareaktion. Kaikki kerrottu myötätunto onnettomuuksia kohtaan johtaisi mahdollisesti tiettyyn tilanteeseen. Lisätietoja siitä, kuinka kaupungit, maakunnat ja osavaltioiden johtajat mahdollisesti reagoivat tekoälyn autonomisiin ajoneuvoihin, on keskustelussa Harvardin tutkimuksesta, jota johdin ja kuten kuvataan osoitteessa linkki tähän.

Jos tilannetta kuvataan selkeästi auto-kolariksi tai auton törmäykseksi, se saattaa mahdollistaa sen ymmärtämisen, että joku tai jokin on kenties syyllinen tapahtumaan. Polvi-nykivä reaktio voi olla se, että tekoälyä pidetään vastuullisena. Asia on niin, että ennen kuin päätämme koskaan voidella tekoälyä oikeushenkilöksi, et voi asettaa vastuuta tekoälylle sinänsä (katso tekoälyä ja oikeushenkilöä koskeva keskusteluni osoitteessa linkki tähän).

Voimme tarkastaa tekoälyn ajojärjestelmän selvittääksemme, mikä johti epäasianmukaiseen ajoon ja sitä seuranneeseen auto-onnettomuuteen. Tämä ei kuitenkaan tarkoita sitä, että tekoälyä pidetään vastuussa. Vastuullisia tahoja ovat AI-kehittäjät, itseajavan auton kalustooperaattori ja muut. Otan mukaan myös muita, koska on mahdollista, että kaupunki saattaa olla osittain vastuussa sen kulman suunnittelusta, jossa käännös tapahtui. Oletetaan lisäksi, että jalankulkija pomppasi ulos kulmasta ja tekoälyjärjestelmä päätti välttää henkilön ja joutui kuitenkin sitten kietoutumaan auto-onnettomuuteen.

Ja niin edelleen.

Yhteenveto

Haluaisimme tietää, mitä tekoäly laskee ja mitä se oli ohjelmoitu tekemään. Tekikö tekoäly niin kuin oli koodattu? Ehkä tekoäly havaitsi ohjelmointivirheen, joka ei puolustele toimia, mutta antaa enemmän vihjeitä siitä, miten kaatuminen tapahtui.

Millaiset tekoälyn suojakaiteet ohjelmoitiin tekoälyjärjestelmään? Jos suojakaiteet olisivat, haluaisimme selvittää, miksi ne eivät näyttäneet estäneen auto-onnettomuutta. Ehkä tekoälyjärjestelmä olisi voinut pysähtyä käännöksen sijaan. Haluaisimme tietää, mitä vaihtoehtoja tekoäly on laskennallisesti arvioinut tapahtuman aikana.

Tietyn tapahtuman ytimeen selvittämisen lisäksi toinen oikeutettu epäilys on se, onko tekoälyn ohjausjärjestelmässä virhe tai jokin muu sisäänrakennettu näkökohta, joka tekee samanlaisia ​​haitallisia toimia. Pohjimmiltaan tämä tapaus saattaa olla merkki tulevasta. Kuinka tietokonepohjaisia ​​ajotilanteiden simulaatioita käytettiin ennakoimaan tämän tyyppisiä tekoälyjärjestelmän kehotuksia? Oliko ajokokeita riittävästi, jotta auto-onnettomuuteen mahdollisesti johtaneet tekoälyongelmat saatiin selville?

Tämä skenaario korostaa kiistanalaista ongelmaa, joka on edessään tekoälypohjaisten itseohjautuvien autojen ilmaantumisen edessä.

Se menee näin.

Yhtäältä yhteiskunnassa on halu ottaa nopeasti käyttöön itseohjautuvat autot, koska toivotaan, että tekoälyjärjestelmät olisivat yhtä turvallisempia tai mahdollisesti turvallisempia kuin ihmiskuljettajat. Pelkästään Yhdysvalloissa kuolee tällä hetkellä lähes 40,000 2.5 ihmistä vuosittain auto-onnettomuuksissa ja noin XNUMX miljoonaa loukkaantuu. Analyysit viittaavat siihen, että suuri osa noista kolareista johtuu inhimillisistä virheistä, kuten ajamisesta humalassa, ajamisesta hajamielisesti jne. (katso arvioni tällaisista tilastoista osoitteessa linkki tähän).

AI-ajojärjestelmät eivät juo ja aja. He eivät tarvitse lepoa, eivätkä ne väsy ratissa ollessaan. Oletuksena on, että luomalla itseajavat autot kannattavaksi kulkuvälineeksi voimme vähentää ihmiskuljettajien määrää. Tämä puolestaan ​​​​merkitsisi sitä, että vähennämme vuosittain auto-onnettomuuksissa kuolleiden ja loukkaantumisten määrää.

Jotkut asiantuntijat ovat sanoneet, että päädymme nollaan kuolemaan ja ilman loukkaantumisia, ja noiden itseohjautuvien autojen oletetaan olevan törmämättömiä, mutta tämä on täysin absurdi ja täysin vääriä odotuksia. Olen selittänyt, miksi tämä on niin epäreilua linkki tähän.

Joka tapauksessa oletetaan, että meillä tulee olemaan jonkin verran auto-onnettomuuksia, joihin itseajavat autot joutuvat. Oletetaan myös, että näissä kolareissa on jonkin verran kuolonuhreja ja loukkaantumisia. Kysymys, jota kiusataan, on, olemmeko me yhteiskuntana valmiita sietämään sellaisia ​​tapauksia. Jotkut sanovat, että jos edes yksi kuolemantapaus tai yksi loukkaantuminen tapahtuu todellisten itseohjautuvien autojen seurauksena, koko sarja ja kaboodle tulisi sulkea.

Vastoinnäkemys on, että jos pelastetut ihmishenget vähentävät vuosilukuja, meidän pitäisi edelleen kannustaa itseohjautuvien autojen markkinoille tuloa, eikä reagoida näin epäloogisesti. Meidän on hyväksyttävä olettamus, että jonkin verran kuolonuhreja ja loukkaantumisia on edelleen, jopa itseohjautuvilla autoilla, ja silti ymmärtää, että vuotuinen määrä, jos sitä vähennetään, viittaa siihen, että olemme oikealla tiellä.

Tietenkin jotkut väittävät, että meillä ei pitäisi olla itseohjautuvia autoja julkisilla teillämme ennen kuin ne on joko hyväksytty sellaiseen käyttöön laajojen ja tyhjentävien tietokonepohjaisten simulaatioiden tuloksena tai yksityisen suljetun radan testauksen avulla. Vasta-argumentti on, että ainoa toteuttamiskelpoinen ja nopein tapa saada itseajavat autot liikkeelle on käyttää yleisiä teitä ja että mahdolliset viivästykset itseohjautuvien autojen käyttöönotossa antavat muuten mahdollistaa ihmisten aiheuttamien törmäysten kauhistumisen jatkumisen. Olen käsitellyt tätä keskustelua pidempään kolumneissani ja kehotan lukijoita katsomaan näitä keskusteluja saadakseen täyden käsityksen tämän kiistanalaisen asian näkökulmista.

Päätetään asiat toistaiseksi.

AI-onnettomuuksia tulee tapahtumaan. Meidän on vastustettava impulssia tulkita tekoäly-onnettomuutta näennäiseltä satunnainen ja ergo antaa tekijöiden ja tekoälyä käyttävien olla kategorisesti poissa koukusta.

On lisätty käänne, jonka jätän sinulle viimeisenä kiehtovana ajatuksena päivääsi.

Koomikko Dane Cook kertoi tämän vitsin auto-onnettomuuksista: "Pari päivää sitten jouduin auto-onnettomuuteen. Ei ole minun vikani. Vaikka se ei olisi sinun syytäsi, toinen henkilö nousee ulos autostaan ​​ja katsoo sinua kuin se olisi sinun vikasi: Miksi pysähdyit punaiseen valoon ja annoit minun lyödä sinua 80:lla!

Kun käänne tulee esille, on mahdollisuus, että tekoälyjärjestelmä saattaa haluta vaatia, että kun kyseessä on tekoälyonnettomuus, jossa kyseinen tekoäly on osallisena, tekoäly ilmoittaa, että tapaus oli ihmisen eikä taatusti tekoälyn syytä. Muuten, tämä voi olla täysin totta, ja ihminen saattaa yrittää tehdä tekoälyn syntipukkiksi väittämällä, että se oli tekoälyn vika.

Tai ehkä tekoäly yrittää tehdä ihmisen syntipukkiksi.

Näet, suunnittelemamme tekoäly voi olla hankala tällä tavalla, joko vahingossa tai ei.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-invitably-of-ai-accidents-which-looms-over-autonomous-self- autolla ajaminen myös/