Tekoälyn etiikkaa ja autonomisia järjestelmiä koskevat oppitunnit äskettäisestä Alaska Airlinesin lennosta, jossa lentäjä ja perämies olivat eri mieltä ennen lentoonlähtöä ja valitsivat äkillisesti taksilla takaisin terminaaliin ja lähteä eri tavoin

Lentoyhtiöt ovat olleet uutisissa melko paljon viime aikoina.

Elämme kesän lentomurtumaa. Väsyneet ja turhautuneet matkustajat joutuvat kohtaamaan kaikenlaisia ​​lentohäiriöitä ja lentoyhtiöiden aikataulujen vääristymiä. Lennot perutaan yllättäen. Lennot myöhästyvät. Matkustajat savua. Valitettavasti on ollut monia tapauksia, joissa matkustajat ovat antaneet näiden ahdistusten puhjeta, ja olemme nähneet valitettavan liian monia viraalisia videoita, joissa esiintyy vastakkainasettelua ja toisinaan nyrkkeilyä.

Harvemmin saamme tietää lentäjän ja perämiehen välisistä kiistoista, joita saattaa syntyä ohjaamossa.

Se on melkoinen yllätys.

Itse asiassa olemme luonnollisesti hämmästyneitä, kun ajattelemme, että lentäjä ja perämies voisivat nähdä vakavan erimielisyyden missä tahansa lennon vaiheessa. Jos erimielisyydet liittyvät siihen, mikä kahvimerkki on paras, oletamme, että se ei häiritse lentokoneella lentämistä koskevaa työtä. He yksinkertaisesti kohauttaisivat olkapäitään heidän näkemättömyytensä lennon kannalta merkityksettömästä aiheesta. Heidän ammatillinen käytöksensä ja pitkäaikainen lentäjäkoulutus saivat vauhtia ja he kiinnittäisivät huomionsa takaisin lennon yksityiskohtiin.

Harkitse kuitenkin, milloin a ammatillista erimielisyyttä puuttuu asiaan.

Aion kertoa kanssasi lyhyesti uutisen, joka on julkaistu laajalti äskettäin tapahtuneesta tapauksesta lennon aikana Yhdysvalloissa ja joka liittyy väitettyyn ammatilliseen erimielisyyteen ohjaamossa.

Tämä on pääasiassa lainattu tässä, jotta voimme tutkia aiheeseen liittyvää aihetta, joka on erittäin tärkeä tekoälyn (AI) syntymiselle. Näetkö, että ihmisten välisessä erimielisyydessä voi olla eräänlainen, sanotaanko ammatillinen erimielisyydet ihmisten välillä, mutta jotain vastaavaa voi tapahtua myös tekoälyn käyttöönoton aikana ja tästä johtuvia ammatillisia erimielisyyksiä ihmisen ja tekoälyn välillä. . Kaikenlaisia ​​tekoälyn eettisiä näkökohtia syntyy. Katso kattavasta ja jatkuvasta kattauksestani tekoälyn etiikkaan ja eettisiin tekoälykysymyksiin linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Valmistaudu kiehtovaan tarinaan.

Kuten äskettäin uutisissa kerrottiin, "ammatillinen erimielisyys" ilmeisesti syntyi Alaska Airlinen lennon aikana, joka oli matkalla Washingtonista San Franciscoon. Uutisten mukaan lento oli siirtynyt pois portilta ja odotti asfaltilla lupaa rullata ja nousta lentoon. Myrsky oli käynnissä ja johti lennon myöhästymiseen yli puolentoista tunnin ajan. Osoittautuu, että kone lopulta kääntyi ympäri ja suuntasi takaisin portille, jonka jotkut matkustajista saattoivat normaalisti olettaa olevan vain myrskyyn liittyvä varotoimenpide.

Eri twiittien perusteella näyttää siltä, ​​että lentäjällä ja perämiehellä oli jonkinlainen ulkopuolinen riita heidän ollessaan ohjaamossa ja päätyivät jotenkin siihen tulokseen, että järkevin tapa olisi pestä lento ja palata terminaaliin. . Tweetit viittasivat siihen, että kapteeni ja perämies eivät ilmeisesti tulleet toimeen keskenään. Lentoyhtiö julkaisi myöhemmin lausunnon, että tilanne oli valitettava (tilannetta ei nimenomaisesti kerrottu tai selitetty sinänsä), johto arvioi kaksi lentopäällikköä ja katsoi heidän lentämiskelpoisiksi, miehistöä vaihdettiin ja lento päätyi toteutumaan. ja saavutti myöhemmin San Franciscon.

Eräässä mielessä, jos lentäjällä ja perämiehellä oli ammatillista erimielisyyttä, kuten siitä, oliko kone sopivasti valmis lentoon tai oliko myrskyn läpi lentäminen sopivalla turvaetäisyydellä, kyseisten matkustajien pitäisi olla helpotettuja ja kiitollinen, että kone palautettiin portille. Parempi olla turvassa kuin katua. Ylimääräinen viivästys on sen arvoista, että se vähentää riskejä, jotka liittyvät harkittuun epätasaiseen tai haitalliseen lentomatkaan.

Jotkut saattavat olla yllättyneitä tällaisen ammatillisen erimielisyyden syntymisestä.

Meillä on ehkä väärä käsitys, että kaikki ohjaamossa tapahtuva on täysin tarkkaa ja hyvin käsikirjoitettua. Kaikenlainen inhimillinen harkintavalta on ilmeisesti karsittu pois prosessista. Tarkkojen ja perusteellisesti laskettujen karttojen perusteella lento joko kelpaa jatkaa tai ei. Ei voi olla erimielisyyttä, kun koko sarjan ja kaabuluksen uskotaan perustuvan kiistattomaan tosiasioiden ja lukujen laskelmaan.

Se ei ole koko totuus asiasta. Tietysti on olemassa joukko protokollia ja kaikenlaisia ​​tarkastuksia ja tasapainoja, mutta tämä ei poista ihmisen harkintakykyä. Lentäjät ja apuohjaajat käyttävät edelleen inhimillistä arvostelukykyä. Onneksi tätä ihmisen arviota hioo vuosien lentäminen. Todennäköisyys on, että kaupallisen matkustajakoneen lentäjällä ja perämiehellä on aiempaa lentokokemusta, ja he hyödyntävät helposti monen vuoden syvällistä päättelyään ja harkintaa, joka liittyy lennonohjauksissa olemiseen.

Kun otetaan huomioon ihmisen harkintakyky, voimme loogisesti ennakoida, että lentäjällä ja perämiehellä on joskus ammatillisia erimielisyyksiä. Useimmiten tällaisia ​​erimielisyyksiä on oletettavasti hyvin vähän. Lentäjä ja perämies päivittäisillä lennoilla ovat todennäköisesti hyvin linjassa ajan enemmistössä. Vasta kun lentoskenaario saattaa mennä tavanomaisten rajojen ulkopuolelle, odotamme jännittyneemmän kitkan syntyvän.

Jos näiden kahden välillä on vahva mielipide-ero, uskaltaisin sanoa, että haluamme heidän tiivistävän sen.

Kuvittele tilanne, jossa lentäjä haluaa jyrkästi edetä, mutta perämies havaitsee, että riskit ovat liian korkeat. Pelkästään apuohjauksen saaminen lentäjälle vaikuttaisi ei-toivotulta. Ohjaaja on tarkistus ja tasapaino siihen, mitä lentäjä saattaa ajatella tekevänsä. Niille, jotka haluavat apuohjaajan olevan hiljaa ja toimivan vain mielettömästi sen mukaan, mitä lentäjä määrää, se ei ole suuri varmistus. Ohjaaja ei ole pelkkä vara "lentäjä", joka astuu kuvaan vasta kun lentäjä on täysin toimintakyvytön. Tämä on harhaanjohtava käsitys siitä, kuinka arvokasta ohjaamossa on ohjaaja ja perämies.

Asiassa on toinenkin näkökulma.

Harkitse tapausta lentäjästä, joka ei usko, että lennon pitäisi jatkua, ja sillä välin perämies yrittää nousta ilmaan. Mitä sitten? Odotetussa hierarkiassa ohjaajan oletetaan tavanomaisesti hallitsevan perämiestä. Määrätty rooli olla päävastuullinen tekee lentäjästä suuremman, mikä muuten on jokseenkin tasa-arvoinen. Normaalisti ohjaajalla on enemmän kokonaislentoaikamausteita kuin perämiehellä, joten perämiesten oletetaan hierarkkisesti noudattavan ohjaajan toiveita (kun järkevän rajoissa).

Joka tapauksessa uskon, että voimme kaikki olla samaa mieltä siitä, että valitseminen olla lentämättä on varmasti vähemmän riskialtis valinta kuin lentää. Kun kone on noussut ilmaan, riskitasot nousevat valtavaksi verrattuna tavalliseen vakaaseen maahan. Tavanomainen kaupallinen lento, joka yksinkertaisesti taksitaan takaisin terminaaliin ilman, että se on noussut ilmaan, olisi melko ystävällinen ratkaisu kiihkeälle kiivaalle keskustelulle lennon aloittamisesta.

Vaihdetaan vaihdetta ja käytetään tätä pirteää uutista aivan eri tarkoitukseen, mutta suhteelliseen tarkoitukseen.

Vähitellen joukossamme on AI-pohjaisia ​​autonomisia järjestelmiä. Joskus tekoäly johtaa ohjelmaa ikään kuin. Tekoäly tekee kaiken A:sta Z:hen, ja voimme tulkita tämän tekoälyksi, joka on täysin tai lähes itsenäinen. Muissa tapauksissa meillä voi olla tekoäly, joka on vuorovaikutuksessa ihmisen kanssa ja jossain määrin ohjelmoitu olemaan riippuvainen siitä, että hänellä on silmukassa oleva ihminen.

Haluaisin keskittyä tekoälypohjaiseen autonomiseen tai puoliautonomiseen järjestelmään, jossa alusta alkaen on ihminen. Tekoäly ja ihminen työnnetään tarkoituksella yhteen ja niiden oletetaan työskentelevän rinnakkain toistensa kanssa. He ovat kohortteja suorittamassa tiettyä tehtävää. Tekoälyn ei ole tarkoitus yksin hoitaa tehtävää. Tekoälyn on oltava vuorovaikutuksessa nimetyn ihmisen kanssa silmukassa.

Otan tämän luonnehdinnan esiin erottaakseni tilanteet, joissa silmukassa olevaa ihmistä pidetään valinnaisena aspektina. Pohjimmiltaan tekoälylle annetaan vapaat kädet. Jos tekoäly päättää hyödyntää ihmistä, olkoon niin. Ei ole vaatimusta, että tekoälyn täytyy koskettaa kantaa nimetyn ihmisen kanssa tai työskennellä käsi kädessä hänen kanssaan. Analyysit, jotka aion kertoa, ovat varmasti asiaankuuluvia tämän kaltaisille valinnainen vuorovaikutusjärjestely, mutta se ei ole se, mitä en nimenomaan aja tässä keskustelussa.

Okei, meillä on jonkinlainen tehtävä, jonka parissa ihminen ja tekoäly työskentelevät yhdessä, erottamattomasti toisistaan. Abstraktissa mielessä meillä on ihminen, joka istuu toisella istuimella ja tekoälyjärjestelmä toisella istuimella. Sanon tämän röyhkeästi, koska emme rajoita tätä keskustelua esimerkiksi robottiin, joka voi itse asiassa istua paikallaan. Viittaan metaforisesti ajatukseen, että tekoäly osallistuu jossain tehtävään ja niin myös ihminen. Fyysisesti heidän olinpaikkansa ei ole erityisen tärkeä keskustelun kannalta.

Saatat olla epävarma, milloin tällainen tilanne saattaa syntyä.

Helppo nakki.

Aion myöhemmin keskustella autonomisten ajoneuvojen ja itseohjautuvien autojen tulosta. Tietyillä autonomian tasoilla tekoälyn ja ihmisen oletetaan toimivan yhdessä. Tekoäly saattaa ajaa autoa ja pyytää ihmistä ottamaan ohjat käsiinsä. Ihminen saattaa ajaa autoa ja aktivoida tekoälyn ottaakseen ohjauksen hallintaansa. He vuorottelevat ohjaimissa.

Lisäksi joissakin malleissa tekoäly on olennaisesti aktiivinen koko ajan (tai ellei sitä ole kytketty pois päältä), jotta tekoäly on aina valmiina. Lisäksi tekoäly saattaa puuttua asiaan suoraan, jopa ilman, että ihminen kysyy, riippuen tilanteesta, joka on kehittymässä. Oletetaan esimerkiksi, että ihminen näyttää nukahtaneen rattiin. Koska ihminen ei näennäisesti voi aktivoida tekoälyä (koska henkilö nukkuu), tekoäly voidaan ohjelmoida ottamaan hallintaansa ihmiseltä.

Jotkut mallit tuovat tekoälyn ja ihmiset kaksinkertaiseen ajamiseen. Tekoäly ajaa ja ihminen ajaa. Tai, jos haluat, ihminen ajaa ja tekoäly myös ajaa. He molemmat ajavat ajoneuvoa. Vertailen tätä noihin erikoistakallisiin autoihin, joita ehkä käytit kuljettajakoulutuksessa, ja ajoneuvossa oli kaksi ajohallintalaitetta, yksi kuljettaja-opiskelijalle ja toinen ajo-opettajalle.

Tämä on vain yksi esimerkki tilanteesta, jossa tekoäly ja ihmiset voivat työskennellä yhdessä tehtävän parissa. Kaikenlaisia ​​mahdollisuuksia on olemassa. Samalla tavalla voidaan suunnitella muunlaisia ​​autonomisia ajoneuvoja, kuten lentokoneita, droneja, sukellusveneitä, pinta-aluksia, junia ja niin edelleen. Meidän ei tarvitse ottaa huomioon vain ajoneuvo- ja kuljetusasetuksia. Kuvittele lääketieteen ala ja leikkaukset, joita lääkäri ja tekoälyjärjestelmä tekevät yhdessä. Lista on loputon.

Minusta tuntuu melkein kuin viittasin klassisen meluiseen vitsiin ihmisestä ja tekoälystä, jotka kävelevät yhdessä baariin. Se on aika naurettavaa tekoälyä harrastaville.

Vakavasti, palataanpa ihmiseen ja tekoälyjärjestelmään, joka työskentelee yhdessä tietyssä tehtävässä. Ensinnäkin haluan välttää tekoälyn antropomorfoimista, jota korostan koko ajan. AI ei ole tunteva. Pidä se mielessä.

Tässä on pohdittavaa: Onko nimetty ihmissilmukka aina täysin samaa mieltä yhteisen tekoälyn kanssa?

Missä tahansa monimutkaisessa tehtävässä näyttää epätodennäköiseltä, että ihminen ja tekoäly olisivat täysin ja aina täysin lukossa. Ihminen saattaa joskus olla eri mieltä tekoälyn kanssa. Voimme viedä tämän oletuksen pankkiin asti.

Haluaisin, että harkitset myös tätä ehkä yllättävää mahdollisuutta: Onko tekoäly aina täysin samaa mieltä nimetyn ihmisen kanssa?

Jälleen, missä tahansa monimutkaisessa tehtävässä näyttäisi olevan täysin ajateltavissa, että tekoäly ei ole joissain tapauksissa samaa mieltä ihmisten kanssa. Jos olet jo taipuvainen ajatukseen, että tekoäly on aina väärässä, kun taas ihmisten on aina oltava oikeassa, sinun olisi viisasta harkita uudelleen tätä hätäistä päätelmää. Kuvittele auto, jossa ihminen ja tekoäly yhdessä ajavat puoliautonomista ajoneuvoa. Ihminen ohjaa tiiliseinää kohti. Miksi? Emme tiedä, ehkä ihminen on päihtynyt tai nukahtanut, mutta tiedämme, että tiiliseinään törmääminen ei ole hyvä idea, kaikki muu on sama. Tekoäly saattaa havaita tulevan onnettomuuden ja yrittää ohjata pois lähestyvästä esteestä.

Kaiken kaikkiaan meillä on selvä mahdollisuus, että tekoäly ja ihminen ovat eri mieltä toistensa kanssa. Toinen tapa sanoa sama asia on, että ihmiset ja tekoäly ovat eri mieltä keskenään. Huomaa, että en halua, että tekoäly-ja-ihminen vs. ihminen-ja-AI -järjestys viittaa mihinkään erimielisyyksien suunnasta tai todennäköisyydestä.

Kaksi työntekijää, yksi ihminen ja yksi tekoäly, ovat eri mieltä keskenään.

Voisimme etukäteen ilmoittaa, että aina kun tietyn tekoälyn ja tietyn ihmisen välillä tapahtuu erimielisyyttä, julistamme etukäteen, että ihminen voittaa tekoälyn. Tästä huolimatta havainnollistava esimerkkini autosta, joka on matkalla tiiliseinään, näyttäisi saavan meidät luopumaan siitä, että ihminen on aina välttämättä oikeassa.

Voisimme päinvastoin ilmoittaa etukäteen, että aina kun syntyy erimielisyyttä, olemme etukäteen todenneet, että tekoäly on oikeassa ja ihminen väärässä. Tämäkään ei ole järkevästi yleistettävä säännös. Kuvittele auto, jossa tekoälyssä on jokin sulautettu ohjelmistovirhe tai bugi, ja tekoäly yrittää ohjata ajoneuvoa pois tieltä ojaan. Olettaen, että kaikki muu on tasa-arvoista, ihmisen pitäisi pystyä voittamaan tämä tekoälyn ajotoiminta ja estämään ajoneuvoa laskeutumasta kaivoon.

Tehdäänpä tästä lyhyt yhteenveto:

  • Onko silmukassa oleva ihminen aina täysin samaa mieltä tekoälyn kanssa? Vastaus: Ei.
  • Onko tekoäly aina täysin samaa mieltä silmukan ihmisen kanssa? Vastaus: Ei.
  • Onko silmukan ihminen aina oikeassa verrattuna tekoälyyn? Vastaus: Ei välttämättä.
  • Onko tekoäly aina oikeassa verrattuna silmukan ihmiseen? Vastaus: Ei välttämättä.

Voit varmasti asettaa tekoälyn katsomaan oletuksena "vääräksi" tai heikommaksi osapuolelle ja siksi aina lykätä ihmistä aina, kun ilmenee erimielisyyttä. Samoin voit määrittää tekoälyn olettamaan, että tekoälyä pidetään "oikeana" aina, kun ihminen on eri mieltä tekoälyn kanssa. Haluan selventää, että voimme tehdä sen ohjelmallisesti, jos haluamme tehdä niin. Väitän kuitenkin, että yleensä näin ei aina tule olemaan. On varmasti asetuksia, joissa emme tiedä etukäteen, onko tekoäly "oikea" vai ihminen "oikea" valittaessa jompaakumpaa tiettyyn tehtävään liittyvässä erimielisyydessä.

Olen johtanut sinut erittäin tärkeään ja erittäin monimutkaiseen kysymykseen.

Mitä meidän pitäisi tehdä, kun ihmissilmukan ja tekoälyn välillä ilmenee ammatillista erimielisyyttä (tai vastaavasti voimme ilmaista tämän tekoälyn ja ihmisen välillä)?

Älä yritä väistää kysymystä.

Jotkut saattavat väittää, että näin ei koskaan tapahtuisi, mutta kuten olen todennut autoa koskevassa esimerkissäni, se voi varmasti tapahtua. Jotkut saattavat väittää, että ihminen on selvästi ylivoimainen ja hänen täytyy olla voittaja kaikista erimielisyyksistä. Esimerkkini autosta ja tiiliseinästä kaataa sen. On tekoälyn kannattajia, jotka saattavat vaatia, että tekoälyn on oltava voittaja, koska näennäisesti voitetaan inhimilliset tunteet ja noiden sattumanvaraisesti sumeaa ajattelua ajattelevien ihmisten mieletön ajattelu. Jälleen kerran toinen esimerkkini, jossa auto ajaa ojaan, kumoaa tämän väitteen.

Todellisessa maailmassa tekoäly ja ihmiset tulevat olemaan eri mieltä, vaikka molemmat on tarkoituksella saatettu ryhmittymään suorittamaan yhteistä tehtävää. Se tapahtuu. Emme voi laittaa päätämme hiekkaan ja teeskennellä, ettei sitä tapahdu.

Näimme, että konetta ohjaaneet ihmiset joutuivat ilmeisesti erimielisyyksiin. Onneksi he suostuivat olemaan eri mieltä, joten näyttää siltä. He toivat koneen takaisin terminaaliin. He löysivät keinon käsitellä erimielisyyttä. Heidän erimielisyytensä ratkaisu toimi hyvin, verrattuna siihen, että he olisivat ehkä menneet nyrkkiin ohjaamossa tai kenties lentäneet ilmaan ja jatkaneet taistelua keskenään. Se on surullinen skenaario, joka on kestämätön, ja voimme olla kiitollisia, ettei sitä tapahtunut.

Sallikaa minun tarjota luettelo eri tavoista, joilla tekoälyn ja ihmissilmukan (tai ihmisen silmukan ja tekoälyn) erimielisyydet voidaan ratkaista:

  • Tekoäly ja yhdessä työskentelevä ihminen selvittävät asiat (ystävällisesti tai ei)
  • Oletuksena ihminen voittaa tekoälyn
  • Tekoäly ylittää ihmisen oletuksena
  • Jotkin muut ennalta määrätyt kiinteät resoluutiot ovat voimassa oletuksena
  • Kolmannen osapuolen ihminen on silmukassa ja heidän osoituksensa voittaa osapuolia
  • Kolmannen osapuolen tekoäly on silmukka-in ja sen osoitus voittaa osapuolia
  • Kolmannen osapuolen ihminen korvaa olemassa olevan ihmisen, asiat etenevät uudelleen
  • Kolmannen osapuolen tekoäly korvaa nykyisen tekoälyn, asiat etenevät uudelleen
  • Kolmannen osapuolen ihminen korvaa olemassa olevan tekoälyn, asiat etenevät uudelleen (nyt ihmiseltä ihmiselle)
  • Kolmannen osapuolen tekoäly korvaa olemassa olevan ihmisen, asiat etenevät uudelleen (nyt tekoälystä tekoälylle)
  • Muut

Ne ovat runsaasti purkamisen arvoisia.

Ennen kuin käsittelemme lisää lihaa ja perunoita tekoälyn ja ihmisten erimielisyyksien käsittelyn taustalla olevista villeistä ja epämääräisistä näkökohdista, esitellään joitain lisäperusteita erittäin olennaisista aiheista. Meidän täytyy sukeltaa lyhyesti tekoälyn etiikkaan ja erityisesti koneoppimisen (ML) ja syväoppimisen (DL) tuloon.

Saatat olla hämärästi tietoinen siitä, että yksi tämän päivän kovimmista äänistä tekoälyalalla ja jopa tekoälykentän ulkopuolella on huutaminen eettisen tekoälyn suuremman vaikutelman puolesta. Katsotaanpa, mitä tarkoittaa viitata tekoälyn etiikkaan ja eettiseen tekoälyyn. Tämän lisäksi tutkimme, mitä tarkoitan puhuessani koneoppimisesta ja syvästä oppimisesta.

Eräs tietty AI Ethics -segmentti tai osa, joka on saanut paljon mediahuomiota, koostuu tekoälystä, jossa on epäsuotuisia ennakkoluuloja ja epätasa-arvoa. Saatat olla tietoinen siitä, että kun uusin tekoälyn aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Paitsi äänekäs juridinen väärinkäytösten hillitsemiseen tähtäävät pyrkimykset omaksua tekoälyn etiikka tekoälyn ilkeyden korjaamiseksi. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Tähän liittyvään ajatukseen, kannatan tekoälyn käyttämistä osana tekoälyongelmien ratkaisua ja tulen torjumista tulella tällä ajattelutavalla. Voisimme esimerkiksi upottaa eettisiä tekoälykomponentteja tekoälyjärjestelmään, joka valvoo, kuinka muu AI tekee asioita ja saa siten mahdollisesti kiinni reaaliajassa kaikki syrjivät toimet, katso keskusteluni osoitteessa linkki tähän. Meillä voisi olla myös erillinen tekoälyjärjestelmä, joka toimii eräänlaisena AI Ethics -monitorina. Tekoälyjärjestelmä toimii valvojana, joka seuraa ja havaitsee, kun toinen tekoäly on menossa epäeettiseen kuiluun (katso analyysini tällaisista ominaisuuksista linkki tähän).

Hetken kuluttua kerron teille joitain tekoälyn etiikan taustalla olevia yleisiä periaatteita. Tällaisia ​​listoja kelluu siellä täällä paljon. Voisi sanoa, että ei ole vielä olemassa yksittäistä luetteloa yleismaailmallisesta vetovoimasta ja yhteisymmärryksestä. Se on ikävä uutinen. Hyvä uutinen on, että ainakin AI Ethics -luetteloita on helposti saatavilla ja ne ovat yleensä melko samanlaisia. Kaiken kaikkiaan tämä viittaa siihen, että eräänlaisen perustellun lähentymisen avulla löydämme tiemme kohti yleistä yhteneväisyyttä siitä, mistä tekoälyn etiikka koostuu.

Käydään ensin lyhyesti läpi joitakin yleisiä eettisiä tekoälyohjeita havainnollistaaksemme, minkä pitäisi olla olennaista jokaiselle tekoälyä luovalle, harjoittelevalle tai käyttävälle.

Esimerkiksi, kuten Vatikaani totesi Rooma kutsu tekoälyn etiikkaan ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän tunnistamansa kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Varmistetaan myös, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluamme villisti spekuloida tunteva AI, tämä keskustelu voisi mennä radikaalisti eri suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (superälykkään tekoälyn mahdollisuudesta tutkimisestani, katso ks. kattavuus täällä).

Pidetään asiat maanläheisemmin ja harkitaan nykypäivän laskennallista tuntematonta tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Palataanpa keskittymään tekoälyn ja ihmisen välisiin erimielisyyksiin.

Olen aiemmin ilmoittanut, että nämä ovat joitain erimielisyyksien ratkaisustrategioita:

  • Tekoäly ja yhdessä työskentelevä ihminen selvittävät asiat (ystävällisesti tai ei)
  • Oletuksena ihminen voittaa tekoälyn
  • Tekoäly ylittää ihmisen oletuksena
  • Jotkin muut ennalta määrätyt kiinteät resoluutiot ovat voimassa oletuksena
  • Kolmannen osapuolen ihminen on silmukassa ja heidän osoituksensa voittaa osapuolia
  • Kolmannen osapuolen tekoäly on silmukka-in ja sen osoitus voittaa osapuolia
  • Kolmannen osapuolen ihminen korvaa olemassa olevan ihmisen, asiat etenevät uudelleen
  • Kolmannen osapuolen tekoäly korvaa nykyisen tekoälyn, asiat etenevät uudelleen
  • Kolmannen osapuolen ihminen korvaa olemassa olevan tekoälyn, asiat etenevät uudelleen (nyt ihmiseltä ihmiselle)
  • Kolmannen osapuolen tekoäly korvaa olemassa olevan ihmisen, asiat etenevät uudelleen (nyt tekoälystä tekoälylle)
  • Muut

Aika purkaa nämä.

Mieti ensin, että tässä on kyse ammatillinen erimielisyyksiä.

Ammatillinen erimielisyys määritellään löyhästi työtehtävään liittyväksi erimielisyydeksi.

Esimerkiksi erimielisyys, joka syntyy lentäjän ja perämiehen välillä myrskyn edessä olevan lennon jatkamisesta, voidaan kohtuudella leimata ammatilliseksi erimielisyydeksi. Sitä vastoin kiivas erimielisyys siitä, mitä kahvimerkkiä lentäjä kannattaa verrattuna perämiehen suosimaan merkkiin, luokitellaan helposti ei-ammattimaiseksi erimielisyydeksi tässä nimenomaisessa yhteydessä.

Tietysti, jos ei-ammatillinen erimielisyys tunkeutuu ammatilliseen erimielisyyteen, saatamme viime kädessä olla kiinnostuneita ei-ammatillisesta erimielisyydestä oletettuna lähteenä tai kipinänä ammatilliselle erimielisyydelle. Kuvittele, että lentäjä ja perämies kiistelevät katkerasti siitä, mikä kahvimerkki on paras, mikä sitten valitettavasti leviää lentokohtaisiin huolenaiheisiin (pun!), kuten lentoonlähtöön vai ei.

Toiseksi meidän on pidettävä mielessä ammatillisen erimielisyyden suuruus.

Ehkä lentäjä ja perämies tai lievä erimielisyys lennon jatkamisesta. He eivät ole ristiriidassa ja vain pohtivat lentoonlähdön etuja ja haittoja. Tämä ei ole ammatillisen erimielisyyden kaliiperi tai laajuus, jota tavallisesti harkitsemme. Asia on siinä, että ammatillinen erimielisyys voi olla ohimenevää ja molemmat osapuolet tekevät ratkaisun sydämellisesti tai ainakin oikea-aikaisesti. Yleisesti ottaen ammatilliset erimielisyydet keskittyvät niihin, jotka näyttävät olevan vaikeasti ratkaistavissa, ja osapuolet ovat vakaasti eri mieltä.

Kolmanneksi, näillä ohjeilla on yleensä oltava jotain vakavaa, jotta nämä ohjeet tulevat voimaan.

Lentää tai olla lennämättä valinta on ehdottomasti elämän tai kuoleman kaltainen päätös, jos lento on vaarassa myrskyn vuoksi tai lentokoneen katsotaan olevan täysin valmistautunut tällaiseen matkaan. Tämä on vakavaa bisnestä. Voimme silti soveltaa ohjeita vähemmän vaikuttaviin ammatillisiin erimielisyyksiin, vaikka se voi olla enemmän vaivaa kuin sen arvoista.

Okei, huomiomme ovat seuraavat:

  • Erimielisyydet ovat pääasiassa ammatillista suuntautumista pikemminkin kuin jostain ei-ammattimaisesta
  • Erimielisyys on luonteeltaan jatkuva, eikä se ole vain ohimenevä tai muuten helposti ratkaistava
  • Erimielisyys ennustaa vakavia seurauksia, ja sillä on yleensä vaikuttava lopputulos
  • Osapuolet ovat erimielisiä ja vaikuttavat käsittämättömiltä

Tarkastellaan nyt lähemmin jokaista ehdottamaani ohjetta tai lähestymistapaa, jotka koskevat tällaisten ammatillisten erimielisyyksien selviytymistä.

Tekoäly ja yhdessä työskentelevä ihminen selvittävät asiat (ystävällisesti tai ei)

Aloitan luettelon yksinkertaisella mahdollisuudella, että tekoäly ja ihmissilmukassa oleva ihminen pystyvät ratkaisemaan ammatillisen erimielisyyden keskenään. Näyttää siltä, ​​​​että ehkä kahden ihmisen, lentäjän ja perämiehen esimerkki kuvaa tällaista tilannetta. He jotenkin päättivät palata terminaaliin ja lähteä erilleen. Voi olla, että tekoälyjärjestelmä ja ihminen pystyvät keksimään ratkaisutavan, joka yleensä tyydyttää molempia osapuolia ja asia on siten saatu tyydyttävästi päätökseen.

Oletuksena ihminen voittaa tekoälyn

Tekoälyä luotaessa saatamme ohjelmoida säännön, jonka mukaan silmukan ihminen on aina etusijalla aina, kun syntyy ammatillista erimielisyyttä. Tämä olisi eksplisiittisesti koodattu oletusarvo. Voimme myös sallia jonkinlaisen ohituksen, varmuuden vuoksi, vaikka pysyvä sääntö on, että ihminen voittaa.

Tekoäly ylittää ihmisen oletuksena

Tekoälyä luotaessa voimme ohjelmoida säännön, jonka mukaan tekoälyn tulee aina voittaa silmukassa olevaa ihmistä aina, kun syntyy ammatillista erimielisyyttä. Tämä on eksplisiittisesti koodattu oletusarvo. Saatamme myös sallia jonkinlaisen ohituksen varmuuden vuoksi, vaikka pysyvä sääntö on, että tekoäly hallitsee.

Jotkin muut ennalta määrätyt kiinteät resoluutiot ovat voimassa oletuksena

Tekoälyä määritettäessä saatamme ohjelmoida säännön, joka sanoo, että jokin muu ennalta määrätty kiinteä resoluutio on voimassa aina, kun ammatillinen erimielisyys syntyy silmukan ihmisen kanssa. Ihminen silmukassa ei ole oletuksena vallitseva. AI ei ole oletuksena vallitseva. On olemassa jokin muu ennalta määritetty päätös. Esimerkiksi, kenties heitetään kolikkoa, jota käytetään päätettäessä, kumpi osapuolista katsotaan oikeaksi tieksi. Se tuntuisi ilmeisesti melko mielivaltaiselta; näin ollen toinen esimerkkitapa olisi, että käyttöön otetaan erikoissääntö, joka laskee arvon molempien osapuolten syötteiden perusteella ja päätyy tulokseen välieränä.

Kolmannen osapuolen ihminen on silmukassa ja heidän osoituksensa voittaa osapuolia

Ammatillisen erimielisyyden sattuessa sääntönä voisi olla, että kolmas osapuoli, joka on ihminen, kutsutaan ja ohjataan ympäristöön tekemään päätös erimielisyyden ratkaisemisesta. Tekoäly on ohjelmoitu viivyttelemään kolmannen osapuolen ihmisen päätöstä. Silmukassa jo olevalle ihmiselle on etukäteen ohjeistettu, että jos tällainen tilanne syntyy, hänenkin on alistettava kolmannen osapuolen ihminen. Sivuhuomautuksena voit todennäköisesti ennakoida, että ihmissilmukassa olevalla ihmisellä saattaa olla ahdistusta liittyä siihen, mitä kolmannen osapuolen ihminen päättää, jos päätös on ristiriidassa ihmissilmukan asennon kanssa.

Kolmannen osapuolen tekoäly on silmukka-in ja sen osoitus voittaa osapuolia

Ammatillisen erimielisyyden sattuessa sääntönä voi olla, että kolmas osapuoli, joka on eri tekoälyjärjestelmä, kutsutaan ja ohjataan asetuksiin tehdäkseen päätöksen erimielisyyden ratkaisemisesta. Alkuperäinen tekoäly on ohjelmoitu lykkäämään kolmannen osapuolen tekoälyn päätöksestä. Silmukassa jo olevalle ihmiselle on ohjeistettu etukäteen, että jos tällainen tilanne syntyy, hänenkin tulee lykätä kolmannen osapuolen tekoälyä. Lisäksi voit todennäköisesti ennakoida, että ihmissilmukassa olevalla ihmisellä saattaa olla ahdistusta liittyä siihen, mitä kolmannen osapuolen tekoäly päättää, jos päätös on ristiriidassa ihmisen silmukassa olevan asennon kanssa.

Kolmannen osapuolen ihminen korvaa olemassa olevan ihmisen, asiat etenevät uudelleen

Ammatillisen erimielisyyden sattuessa silmukan ihminen korvataan kolmannella osapuolella, joka on ihminen ja josta tulee vastedes ihminen silmukassa. Ihmistä, joka oli tehtävän alkuperäinen ihminen, ei enää pidetä osana käsillä olevaa tehtävää. Se on avoin näkökulma, mitä muutoin tapahtuu nyt korvatun ihmissilmukan kanssa, mutta sanomme, että heillä ei varmasti ole enää jatkuvaa roolia työtehtävässä.

Kolmannen osapuolen tekoäly korvaa nykyisen tekoälyn, asiat etenevät uudelleen

Ammatillisen erimielisyyden sattuessa tekoäly korvataan kolmannen osapuolen tekoälyllä, ja siitä tulee vastedes käsillä olevassa työtehtävässä käytettävä tekoäly. Tehtävään alun perin käytettyä tekoälyä ei enää pidetä osana käsillä olevaa tehtävää. Se on avoin näkökulma, mitä muuten tapahtuu nyt korvatun tekoälyn kanssa, mutta sanomme, että tekoälyllä ei varmasti ole enää jatkuvaa roolia työtehtävässä.

Kolmannen osapuolen ihminen korvaa olemassa olevan tekoälyn, asiat etenevät uudelleen (nyt ihmiseltä ihmiselle)

Ammatillisen erimielisyyden sattuessa tekoäly korvataan kolmannen osapuolen ihmisellä, jolle hänestä tulee nyt harkittu yhteistyöosapuoli, jota käytetään käsillä olevassa työtehtävässä. Tehtävään alun perin käytettyä tekoälyä ei enää pidetä osana käsillä olevaa tehtävää. Se on avoin näkökulma, mitä muuten tapahtuu nyt korvatun tekoälyn kanssa, mutta sanomme, että tekoälyllä ei varmasti ole enää jatkuvaa roolia työtehtävässä. Lyhyesti sanottuna tästä tulee nyt kahden osapuolen ihmiseltä ihmiselle suoritettava tehtävä.

Kolmannen osapuolen tekoäly korvaa olemassa olevan ihmisen, asiat etenevät uudelleen (nyt tekoälystä tekoälylle)

Ammatillisen erimielisyyden sattuessa silmukan ihminen korvataan kolmannen osapuolen tekoälyllä, ja tästä tekoälystä tulee vastedes edellisen silmukan ihmisen täyttö. Ihmistä, joka oli tehtävän alkuperäinen ihminen, ei enää pidetä osana käsillä olevaa tehtävää. Se on avoin näkökulma, mitä muutoin tapahtuu nyt korvatun ihmissilmukan kanssa, mutta sanomme, että heillä ei varmasti ole enää jatkuvaa roolia työtehtävässä. Lyhyesti sanottuna tästä tulee nyt kahden osapuolen AI-to-AI suorittamaan tehtävä.

Muut

Muitakin muunnelmia voidaan suunnitella selviytymään ammatillisista erimielisyyksistä, mutta olemme käsitelleet tässä joitakin kulmakiviä.

Kuinka voimme päättää, mikä näistä lähestymistavoista on oikea tietyssä tilanteessa?

Tällaisen valinnan tekemiseen liittyy monenlaisia ​​​​ongelmia. Siinä on teknisiä näkökohtia. Liiketoiminnallisia näkökohtia on. On olemassa juridisia ja eettisiä näkökohtia.

Jossain määrin siksi tekoälyn etiikka ja eettinen tekoäly ovat niin tärkeä aihe. Tekoälyn etiikan ohjeet saavat meidät pysymään valppaina. Tekoälyteknikot voivat toisinaan olla kiinnostuneita teknologiasta, erityisesti huipputekniikan optimoinnista. He eivät välttämättä ota huomioon suurempia yhteiskunnallisia seurauksia. Tekoälyn eettinen ajattelutapa ja sen integroiminen tekoälyn kehittämiseen ja harjoittamiseen on elintärkeää asianmukaisen tekoälyn tuottamiseksi, mukaan lukien (ehkä yllättäen tai ironisesti) arvioitaessa, kuinka tekoälyn etiikka otetaan käyttöön yrityksissä.

Tekoälyn eettisten ohjeiden yleisen soveltamisen lisäksi on vastaava kysymys, pitäisikö meillä olla lakeja säätelemään tekoälyn eri käyttötapoja. Liittovaltion, osavaltion ja paikallisen tason uudet lait koskevat tekoälyn suunnittelun laajuutta ja luonnetta. Pyrkimys tällaisten lakien laatimiseen ja säätämiseen on asteittaista. Tekoälyn etiikka toimii ainakin harkittuna pysähdyspaikkana, ja se sisällytetään lähes varmasti jossain määrin suoraan näihin uusiin lakeihin.

Huomaa, että jotkut väittävät jyrkästi, ettemme tarvitse uusia tekoälyä koskevia lakeja ja että nykyiset lakimme ovat riittäviä. Itse asiassa he varoittavat, että jos säädämme joitakin näistä tekoälylaeista, tapamme kultaisen hanhen hillitsemällä tekoälyn edistysaskeleita, jotka tarjoavat valtavia yhteiskunnallisia etuja.

Tämän painavan keskustelun tässä vaiheessa lyön vetoa, että kaipaat havainnollistavia esimerkkejä, jotka voisivat esitellä tätä aihetta. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo mitään tekoälyn ja ihmisen välisten erimielisyyksien ratkaisuista, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoäly-ihminen erimielisyys

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Toivon, että se tarjoaa riittävän litaania varoituksia taustalla, mitä aion kertoa.

Täysin itseohjautuvien ajoneuvojen kohdalla ei välttämättä ole mahdollisuutta ammatilliseen erimielisyyteen ihmisen ja tekoälyn välillä, koska on mahdollista, ettei silmukassa ole ihmistä. Monien nykyajan itseohjautuvien autonvalmistajien pyrkimyksenä on poistaa ihmiskuljettaja kokonaan ajotehtävästä. Ajoneuvo ei sisällä edes ihmisten ulottuvilla olevia ajonhallintalaitteita. Siinä tapauksessa ihmiskuljettaja, jos hän on paikalla, ei voi osallistua ajotehtävään, koska heillä ei ole pääsyä mihinkään ajonhallintaan.

Joissakin täysin autonomisissa ajoneuvoissa jotkin mallit sallivat silti ihmisen olla liikkeessä, vaikka ihmisen ei tarvitse olla käytettävissä tai osallistua ajoprosessiin ollenkaan. Ihminen voi siis osallistua ajamiseen, jos henkilö niin haluaa. Tekoäly ei kuitenkaan ole missään vaiheessa riippuvainen siitä, että ihminen suorittaa ajotehtäviä.

Puoliautonomisten ajoneuvojen tapauksessa ihmiskuljettajan ja tekoälyn välillä on käsi kädessä suhde. Ihmiskuljettaja voi ottaa ohjauksen kokonaan haltuunsa ja olennaisesti estää tekoälyä osallistumasta ajoon. Jos ihmiskuljettaja haluaa palauttaa tekoälyn ajorooliin, hän voi tehdä niin, vaikka tämä joskus pakottaa ihmisen luopumaan ajoohjaimista.

Toinen puoliautonomisen toiminnan muoto tarkoittaisi, että ihmiskuljettaja ja tekoäly työskentelevät yhdessä tiimityöskentelyssä. Tekoäly ajaa ja ihminen ajaa. He ajavat yhdessä. Tekoäly saattaa jäädä ihmiselle. Ihminen saattaa tyytyä tekoälyyn.

Jossain vaiheessa tekoälyn ajojärjestelmä ja silmukassa oleva ihmiskuljettaja voivat saavuttaa "ammatillisen erimielisyyden" käsillä olevasta ajotehtävästä.

Havainnollistaaksesi, kuinka jotkin edellä mainituista ammatillisen erimielisyyden käsittelemistä koskevista säännöistä voivat olla haastavia toteuttaa, harkitse kolmannen osapuolen kutsumista ryhtymään asiaan ja tarjoamaan ratkaisua ratkaisemattoman ongelman ratkaisemiseksi.

Oletetaan, että autonvalmistaja tai itseajava teknologiayritys on järjestänyt etäkäyttäjillä pääsyn ajoneuvokannan ajoneuvojen ohjaimiin. Ihmisoperaattori istuu jossain kaukaisessa toimistossa tai vastaavassa ympäristössä. Tietokonejärjestelmän kautta he pystyvät katsomaan ajonäkymää käyttämällä itse ajavaan autoon ladattuja kameroita ja muita anturilaitteita. Heille tämä on melkein kuin online-videopelin pelaamista, vaikka todellisilla olosuhteilla voi tietysti olla vakavia seurauksia.

Tekoälyjärjestelmä ja autossa oleva ihmiskuljettaja ajavat puoliautonomista ajoneuvoa pitkin pitkää moottoritietä. Yhtäkkiä tekoäly haluaa ohjata ojaan. Ihmiskuljettaja ei halua tehdä tätä. Kaksikko tappelee ajon ohjaimissa.

Miten tämä ratkaistaan?

Olisimme ehkä voineet asettaa etukäteen, että ihminen voittaa aina. Oletetaan kuitenkin, että päätimme olla tekemättä niin.

Olisimme voineet määrittää etukäteen, että tekoäly voittaa aina. Oletetaan, että päätimme olla tekemättä niin. Kaiken kaikkiaan emme hyväksyneet mitään näistä säännöistä, paitsi että päätimme sallia kolmannen osapuolen puuttuvan asiaan ja ratkaista minkä tahansa luonteeltaan ammatillisen erimielisyyden.

Tässä käyttötapauksessa tekoäly ja ratissa oleva ihmiskuljettaja taistelevat ohjaimista. Tämä sanotaan välitettynä etä-ihmisoperaattorille (kolmannen osapuolen ihmiselle). Kauko-ihmisoperaattori tutkii, mitä tapahtuu, ja päättää ohjata pois ojasta, mikä näennäisesti estää tekoälyn tekemän. Samanaikaisesti oletetaan, että etä-ihmisoperaattori ohjaa vastaantulevaan liikenteeseen, mitä ei ehkä tekoäly tai auton sisällä oleva ihmiskuljettaja olisi halunnut tehdä.

Asia on siinä, että tapa, jolla tämä sääntö on toteutettu, on se, että kolmannen osapuolen ihmisoperaattori pystyy täysin ohittamaan sekä tekoälyn että ihmisen silmukassa. Se, tuottaako tämä hyvän tuloksen, ei varmasti ole varmaa.

Käytän tätä esimerkkiä korostaakseni joitain lisättyjä oivalluksia näistä asioista.

Et voi tehdä röyhkeää oletusta, että vain siksi, että yksi näistä säännöistä pannaan täytäntöön, ratkaistun erimielisyyden lopputulos on välttämättä taattu hyvä lopputulos. Se ei ehkä ole. Mitään rautaista aina oikeaa sääntöä ei voi valita.

Seuraavaksi jotkut näistä säännöistä eivät välttämättä ole toteuttamiskelpoisia.

Harkitse esimerkkiä etäkäyttäjän puuttumisesta, kun tekoäly ja ihmiskuljettaja tappelevat ajoohjaimista. Voi kestää useita sekunteja, ennen kuin etä-ihmisoperaattori ymmärtää, mitä tapahtuu. Silloin ajoneuvo saattoi jo päätyä ojaan tai sillä oli jokin muu haittavaikutus. Oletetaan myös, että ajoneuvon sijainti estää etäkäytön, kuten sijainnin, jossa ei ole sähköistä verkkoyhteyttä. Tai ehkä ajoneuvon verkkoominaisuudet eivät toimi sillä hetkellä.

Kuten näet, sääntö saattaa näyttää paperilla hienolta, vaikka säännön ottaminen käyttöön saattaa olla erittäin vaikeaa tai erittäin sattumanvaraista lähestymistapaa. Katso kriittisen katseeni kattavuus autonomisten ajoneuvojen ja itseohjautuvien autojen etäkäyttäjästä osoitteessa linkki tähän.

Haluaisin käsitellä lyhyesti toista aiheeseen liittyvää aihetta, jota käsittelen perusteellisemmin tulevassa analyysissä.

Yksi lisääntyvistä huolenaiheista autonomisista ajoneuvoista ja itseohjautuvista autoista, jotka ovat puoliautonomisia, on ns. Kuuman perunan syndrooma.

Tässä on sopimus.

Tekoälyjärjestelmä ja ihminen ajavat rinnakkain. Syntyy vakava tilanne. Tekoäly on ohjelmoitu jättäytymään pois ajotehtävästä ja luovuttamaan asiat ihmiselle, kun ikävä hetki tulee. Tämä vaikuttaa ehkä "järkevältä", koska näytämme vetoavan sääntöön, jonka mukaan ihminen on oletusarvoinen "voittaja" kaikissa mahdollisissa ammatillisissa erimielisyyksissä.

Mutta tekoälyn keskeyttäminen saattaa johtua ilkeämmistä tai salakavalamista tarkoituksista. Voi olla, että autonvalmistaja tai itse ajava teknologiayritys ei halua, että heidän tekoälyänsä pidetään "syyllisenä osapuolena", kun autokolari tapahtuu. Tekoäly luovuttaa äkillisesti ohjaimet ihmiselle, jotta se näennäisesti välttyisi joutumasta sellaiseen kiinni. Voila, ihminen on nyt oletettavasti täysin vastuussa ajoneuvosta.

Kicker on, että oletetaan, että tekoäly suorittaa tämän kanavanvaihdon, kun oletetaan, että sekunti on jäljellä ennen kuin törmäys tapahtuu.

Olisiko ihmisellä todellakaan aikaa välttää törmäys?

Todennäköisesti ei.

Oletetaan, että tekoäly suorittaa kanavanvaihdon muutaman millisekunnin tai nanosekuntia jäljellä. Uskallan väittää, että ihmisellä ei ole käytännössä mitään mahdollisuutta tehdä mitään onnettomuuden välttämiseksi.

Autonvalmistajan tai itse ajavan auton yrityksen näkökulmasta he voivat yrittää käyttäytyä ikään kuin kätensä olisivat puhtaat, kun tällainen autokolari tapahtuu. Autoa kuljetti ihminen. Tekoäly ei ajanut autoa. Ainoa "looginen" johtopäätös näyttäisi olevan, että ihmisen on oltava syyllinen ja tekoälyn on oltava täysin moitteeton.

Se on kello.

Aion keskustella tästä tarkemmin tulevassa kolumnissa.

Yhteenveto

Ammatillisia erimielisyyksiä tulee vastaan.

On vaikea kuvitella mitään monimutkaista tehtävää, jossa kaksi osapuolta suorittaa tehtävän ja josta ei koskaan syntyisi ammatillisia erimielisyyksiä. Tämä vaikuttaa fantasiamaalta tai ainakin suurelta harvinaisuudelta.

Nykyään meillä on paljon ja paljon ihmisten välisiä ammatillisia erimielisyyksiä, joihin päivittäin ratkaistaan ​​rauhanomaisesti ja järkevästi tavalla tai toisella. Itse asiassa luomme usein tilanteita tarkoituksella edistääksemme ja tuodaksemme esiin ammatillisia erimielisyyksiä. Saatat väittää, että tämä osoittaa sen kuuluisan viisauden, että joskus kaksi päätä on parempi kuin yksi.

Tekoälyn yleistyessä meillä tulee olemaan paljon tekoälystä ihmiselle tai ihmisestä tekoälylle kahden osapuolen tehtävien suorittajia, ja niitä tulee olemaan ammatillisia erimielisyyksiä joka tulee tapahtumaan. Laiska lähestymistapa on aina tyytyä ihmiseen. Tämä ei ehkä ole sopivin lähestymistapa. AI saattaa olla parempi valinta. Tai jokin muista edellä mainituista säännöistä voi olla järkevämpi lähestymistapa.

On se viisas linja, jota toistetaan usein, että meidän kaikkien pitäisi yleensä pystyä olemaan eri mieltä, vaikka kun on kyse johtopäätöksestä, erimielisyydet on joskus ratkaistava yksiselitteisesti, muuten käsillä oleva asia johtaa sanoinkuvaamattomaan onnettomuuteen. Emme voi vain antaa erimielisyyksien kuivua viiniköynnökselle. Aika voi olla ratkaiseva tekijä ja henki voi olla vaakalaudalla.

On olemassa selvä vaatimus joidenkin harkittujen keinojen ratkaisemiseksi erimielisyyksien ratkaisemiseksi, vaikka se ei välttämättä olisikaan miellyttävää, mukaan lukien silloin, kun tekoäly ja silmukassa oleva ihminen eivät näe silmästä silmään tai tavusta tavuun.

Luotan siihen, että et ole eri mieltä tuosta täysin hyväksyttävästä väitteestä.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lesssons-gleaned-from-that-recent-alaska-airlines-flight-where- lentäjä ja perämies olivat eri mieltä ennen lentoonlähtöä ja valitsivat äkillisesti taksilla takaisin terminaaliin ja lähteä omille-erilleen/