Tekoälyn etiikka ja tekoälylaki selventävät, mikä todellisuudessa on luotettava tekoäly

Luottamus on kaikki kaikessa, niin sanotaan.

Tunnettu filosofi Lao Tzu sanoi, että niihin, jotka eivät luota tarpeeksi, ei luoteta. Arvostettu kirjailija Ernest Hemingway totesi, että paras tapa saada selville, voitko luottaa johonkin, on luottaa heihin.

Samaan aikaan näyttää siltä, ​​​​että luottamus on sekä arvokasta että hauras. Luottamus, joka ihmisellä on, voi romahtaa kuin korttitalo tai yhtäkkiä räjähtää kuin poksahtanut ilmapallo.

Muinainen kreikkalainen tragedia Sofokles väitti, että luottamus kuolee, mutta epäluottamus kukoistaa. Ranskalainen filosofi ja matemaatikko Descartes väitti, että on järkevää olla koskaan luottamatta kokonaan niihin, jotka ovat pettäneet meitä edes kerran. Miljardööri yrityssijoittaja Warren Buffett kehotti, että luotettavan maineen rakentaminen kestää kaksikymmentä vuotta ja sen pilaaminen viisi minuuttia.

Saatat yllättyä tietää, että kaikki nämä erilaiset näkemykset ja provokatiiviset mielipiteet luottamuksesta ovat ratkaisevia tekoälyn (AI) syntymiselle.

Kyllä, siihen viitataan kiihkeästi luotettava AI se saa nykyään paljon huomiota, mukaan lukien tekoälyn alan käsien kiemurat ja myös tekoälyn ulkopuolisten raivokkaat purkaukset. Yleiskäsitys tarkoittaa, onko yhteiskunta halukas luottamaan tekoälyjärjestelmien kaltaisiin tekijöihin.

Oletettavasti, jos yhteiskunta ei luota tai ei voi luottaa tekoälyyn, on todennäköistä, että tekoälyjärjestelmät eivät saa pitoa. AI sellaisena kuin sen tällä hetkellä tunnemme, työntyy sivuun ja kerää vain pölyä. Järkyttävää kyllä, tekoäly voi päätyä roskakasaan, joka on historiallisesti pudonnut vain epätoivoisesti yritettyyn mutta näyttävästi epäonnistuneeseen korkean teknologian kokeiluun. Kaikenlaiset ponnistelut tekoälyn elvyttämiseksi voisivat kohdata valtavan ylämäkeen taistelun, ja kaikenlaiset vastalauseet ja suorat protestit pysäyttävät ne. Näennäisesti johtuu luottamuksen puutteesta tekoälyyn.

Kumpi se on, luotammeko tekoälyyn vai emmekö luota tekoälyyn?

Pohjimmiltaan, onko meillä todella luotettava tekoäly?

Nämä ovat entisiä ja ratkaisemattomia kysymyksiä. Puretaan se pakkauksestaan.

Tekoälyn etiikka ja taistelu luotettavan tekoälyn puolesta

Monet tekoälyn työntekijät uskovat, että tekoälyjärjestelmien kehittäjät voivat saada luottamuksen tekoälyyn suunnittelemalla asianmukaisesti luotettavaa tekoälyä. Olennaista on, että et voi toivoa saavasi luottamusta, jos tekoäly ei vaikuta luotettavalta heti alkuvaiheessa. Luomalla tekoälyjärjestelmiä luotettaviksi pidetyllä tavalla on olemassa suuri mahdollisuus, että ihmiset hyväksyvät tekoälyn ja ottavat käyttöön tekoälyn käyttötavat.

Yksi epäilys, joka jo vaivaa tätä luotettavaa tekoälyä, on se, että saatamme olla jo a julkinen luottamuspula kun on kyse tekoälystä. Voisi sanoa, että jo näkemämme tekoäly on kaivanut kuopan ja hajottanut luottamusta valtavia määriä. Sen sijaan, että aloittaisi jostain riittävästä luotettavuuspohjasta, tekoäly joutuu hämmästyttävällä tavalla nousemaan pois alijäämästä ja hankkimaan jokaisesta halutusta lisäluottamuksesta, jota tarvitaan vakuuttamaan ihmiset siitä, että tekoäly on todellakin luotettava.

Tähän haasteeseen tulevat tekoälyn etiikka ja tekoälylaki.

Tekoälyn etiikka ja tekoälylaki kamppailevat kovasti yrittäessään selvittää, mitä tarvitaan tehdä tekoälystä luotettavaksi. Jotkut ehdottavat, että on olemassa kaava tai rautaiset lait, jotka vievät tekoälyn luotettaviin taivaisiin. Toiset osoittavat, että yhteiskunnan ylistetyn luottamuksen saavuttaminen vaatii kovaa työtä ja johdonmukaista ja hellittämätöntä tekoälyn etiikkaa ja tekoälylain periaatteita noudattamista.

Nykyaikainen arvoitus luottamuksesta tekoälyyn ei sinänsä ole erityisen uusi.

Voit helposti palata 1990-luvun lopulle ja jäljittää halutun "luotetun tietojenkäsittelyn" syntymisen noilta ajoilta. Tämä oli laajamittaista teknologia-alan yritystä selvittää, voidaanko tietokoneet kaikki kertoa tavalla, jonka yhteiskunta tulkitsisi luotettaviksi.

Avainkysymykset koostuivat seuraavista:

  • Voisiko tietokonelaitteisto tehdä sellaiseksi, että se olisi luotettava?
  • Voidaanko ohjelmisto luoda luotettavaksi?
  • Voisimmeko ottaa käyttöön maailmanlaajuisesti verkotettuja tietokoneita, jotka olisivat luotettavia?
  • Ja niin edelleen.

Tuolloin ja tähän päivään asti vallitseva käsitys on se, että luotettava tietojenkäsittely on edelleen eräänlainen pyhä malja, joka ei valitettavasti ole vieläkään aivan ulottuvillamme (kuten todetaan artikkelissa "Trustworthy AI" ACM: n viestit). Voisit vakuuttavasti väittää, että tekoäly on jälleen yksi osa tietojenkäsittelyn luotettavuudesta, mutta tekoäly tekee luottamuksen tavoittelusta entistä haastavampaa ja epävarmempaa. Tekoälystä on tullut mahdollinen spoileri taistelussa luotettavan tietojenkäsittelyn saavuttamiseksi. Kenties ketjun heikoin lenkki.

Katsotaanpa nopeasti, miksi tekoäly on herättänyt hilsettämme siitä, että se on vähemmän kuin luotettava. Lisäksi tutkimme tekoälyn etiikan periaatteita, joiden toivotaan auttavan tukemaan jo puoliksi vedenalaista koettua luottamusta (tai kuplivaa epäluottamusta) nykypäivän tekoälyyn. Katso jatkuvasta ja laajasta tekoälyn etiikkaa koskevasta kattauksestani linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Eräs tietty AI Ethics -segmentti tai osa, joka on saanut paljon mediahuomiota, koostuu tekoälystä, jossa on epäsuotuisia ennakkoluuloja ja epätasa-arvoa. Saatat olla tietoinen siitä, että kun uusin tekoälyn aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Paitsi äänekäs juridinen väärinkäytösten hillitsemiseen tähtäävät pyrkimykset omaksua tekoälyn etiikka tekoälyn ilkeyden korjaamiseksi. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Tähän liittyvään ajatukseen, kannatan tekoälyn käyttämistä osana tekoälyongelmien ratkaisua ja tulen torjumista tulella tällä ajattelutavalla. Voisimme esimerkiksi upottaa eettisiä tekoälykomponentteja tekoälyjärjestelmään, joka valvoo, kuinka muu AI tekee asioita ja saa siten mahdollisesti kiinni reaaliajassa kaikki syrjivät toimet, katso keskusteluni osoitteessa linkki tähän. Meillä voisi olla myös erillinen tekoälyjärjestelmä, joka toimii eräänlaisena AI Ethics -monitorina. Tekoälyjärjestelmä toimii valvojana, joka seuraa ja havaitsee, kun toinen tekoäly on menossa epäeettiseen kuiluun (katso analyysini tällaisista ominaisuuksista linkki tähän).

Hetken kuluttua kerron teille joitain tekoälyn etiikan taustalla olevia yleisiä periaatteita. Tällaisia ​​listoja kelluu siellä täällä paljon. Voisi sanoa, että ei ole vielä olemassa yksittäistä luetteloa yleismaailmallisesta vetovoimasta ja yhteisymmärryksestä. Se on ikävä uutinen. Hyvä uutinen on, että ainakin AI Ethics -luetteloita on helposti saatavilla ja ne ovat yleensä melko samanlaisia. Kaiken kaikkiaan tämä viittaa siihen, että eräänlaisen perustellun lähentymisen avulla löydämme tiemme kohti yleistä yhteneväisyyttä siitä, mistä tekoälyn etiikka koostuu.

Käydään ensin lyhyesti läpi joitakin yleisiä eettisiä tekoälyohjeita havainnollistaaksemme, minkä pitäisi olla olennaista jokaiselle tekoälyä luovalle, harjoittelevalle tai käyttävälle.

Esimerkiksi, kuten Vatikaani totesi Rooma kutsu tekoälyn etiikkaan ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän tunnistamansa kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Varmistetaan myös, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluamme villisti spekuloida tunteva AI, tämä keskustelu voisi mennä radikaalisti eri suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (superälykkään tekoälyn mahdollisuudesta tutkimisestani, katso ks. kattavuus täällä).

Pidetään asiat maanläheisemmin ja harkitaan nykypäivän laskennallista tuntematonta tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Yhdistetään tämä kysymykseen luotettavasta tekoälystä

Emme todellakaan näytä olevan halukkaita luottamaan tekoälyyn, joka esittelee kielteisiä ennakkoluuloja ja syrjiviä toimia. Uskomme siinä tapauksessa, että tällainen tekoäly ei todellakaan ole luotettava, joten taipuisimme aktiivisesti epäluottamukseen tekoälyyn. Menettämättä yli laidan antropomorfista vertailua (sanon hetken kuluttua lisää tekoälyn antropomorfoinnista), epäsuotuisia ennakkoluuloja osoittava ihminen luokiteltaisiin myös ei erityisen luotettavaksi.

Kaivautuminen luottamukseen ja luotettavuuteen

Ehkä meidän pitäisi katsoa, ​​mitä tarkoitamme, kun väitämme, että luotamme tai emme luota johonkin tai johonkin. Harkitse ensin useita luottamuksen jokapäiväisiä sanakirjamääritelmiä.

Esimerkkejä siitä, mitä luottamus määritelmällisesti tarkoittaa:

  • Varma riippuvuus jonkun tai jonkin luonteesta, kyvystä, vahvuudesta tai totuudesta (Merriam-Webster online-sanakirja).
  • Luottaminen henkilön tai asian eheyteen, vahvuuteen, kykyyn, vakuuteen jne (Dictionary.com)
  • Luja usko jonkun tai jonkin luotettavuuteen, totuuteen, kykyyn tai vahvuuteen (Oxford Languages ​​online-sanakirja).

Haluaisin huomauttaa, että kaikki nämä määritelmät viittaavat "johonkin" ja viittaavat myös "johon" mahdollisesti luotettavaksi. Tämä on huomionarvoista, koska jotkut saattavat väittää, että luotamme vain ihmisiin ja että luottamuksen teko on varattu yksinomaan ihmiskunnalle luotettavuuden kohteena. Ei niin. Voit luottaa leivänpaahtimeesi. Jos se näyttää valmistavan paahtoleipää luotettavasti ja tekee sen rutiininomaisesti, voit varmasti luottaa siihen, onko leivänpaahdin todella luotettava.

Samassa ajattelussa tekoäly voi olla myös luottamusnäkökulmamme aihe. Todennäköisyys on, että tekoälyyn liittyvä luottamus tulee olemaan paljon monimutkaisempaa kuin vaikkapa arkipäiväinen leivänpaahdin. Leivänpaahdin voi yleensä tehdä vain kourallisen toimintoja. Tekoälyjärjestelmä on todennäköisesti paljon monimutkaisempi ja näyttää toimivan vähemmän läpinäkyvästi. Kykymme arvioida ja varmistaa tekoälyn luotettavuus on varmasti paljon vaikeampaa ja tarjoaa selkeitä haasteita.

Sen lisäksi, että tyypillinen tekoälyjärjestelmä on monimutkaisempi, sen sanotaan olevan ei-deterministinen ja mahdollisesti itsesäätelevä tai itsesäätyvä. Voimme tarkastella tätä käsitystä lyhyesti.

Deterministisellä koneella on taipumus tehdä samoja asioita kerta toisensa jälkeen ennustettavasti ja elinkelpoisesti havaittavissa olevalla toimintamallilla. Voisit sanoa, että tavallinen leivänpaahdin paahto suunnilleen samalla tavalla ja siinä on paahtamisen säätimet, jotka säätelevät paahtamista, jotka kaikki ovat yleensä leivänpaahtimen käyttäjän ennakoitavissa. Sitä vastoin monimutkaiset tekoälyjärjestelmät suunnitellaan usein ei-deterministisiksi, mikä tarkoittaa, että ne voivat tehdä aivan erilaisia ​​asioita kuin olisit muuten odottanut. Tämä voisi osittain myös vahvistua, jos tekoäly on kirjoitettu säätelemään itse itseään, mikä voi edullisesti antaa tekoälylle mahdollisuuden parantaa ML/DL:n tapauksessa, vaikka se voi myös häiritsevästi saada tekoälyn horjumaan tai nousemaan riveihin. tekoälyn pahuudesta. Et ehkä tiedä, mikä sinuun osui, sillä tavallaan puhuttuna jäit täysin epävarmaksi tekoälyn toiminnasta.

Mitä voisimme tehdä saadaksemme tekoälyn lähemmäksi luotettavuutta?

Yksi lähestymistapa koostuu siitä, että yritetään varmistaa, että tekoälyä rakentavat ja harjoittavat ihmiset noudattavat joukkoa tekoälyn eettisiä sääntöjä. Kuten nämä tekoälytutkijat mainitsevat: "Luottamus on asenne, että agentti käyttäytyy odotetulla tavalla ja että häneen voidaan luottaa tavoitteensa saavuttamiseksi. Luottamus hajoaa agentin ja luottamushenkilön välisen virheen tai väärinkäsityksen jälkeen. Psykologinen luottamuksen tila tekoälyyn on monimutkaisen järjestelmän esiin nouseva ominaisuus, joka yleensä sisältää useita suunnittelu-, koulutus-, käyttöönotto-, suorituskyvyn mittaus-, säätely-, uudelleensuunnittelu- ja uudelleenkoulutusjaksoja. ACM: n viestitStuart Middletonin, Emmanuel Letouzen, Ali Hossainin ja Adriane Chapmanin "Luottamus, sääntely ja ihmissilmukan tekoäly Euroopan alueella" huhtikuu 2022).

Pääasia on, että jos saamme tekoälykehittäjät noudattamaan eettistä tekoälyä, he toivottavasti päätyvät tuottamaan luotettavaa tekoälyä. Tämä on kaikki hyvin ja hyvä, mutta se näyttää hieman epäkäytännölliseltä tosielämässä, vaikka se on ehdottomasti kulkemisen arvoinen polku.

Tässä minä tarkoitan.

Oletetaan, että tekoälykehittäjät tekevät ahkeraa työtä luomalla tekoälyjärjestelmän johonkin tarkoitukseen, jota yleensä kutsumme X:ksi. He varmistavat huolellisesti, että tekoäly noudattaa tekoälyn etiikan avoimuusohjeita. He varmistavat tarkasti, että yksityisyys on asianmukaisesti sisäänrakennettu tekoälyyn. Lähes kaikissa tavallisissa tekoälyn eettisissä periaatteissa tekoälyn rakentajat varmistavat tyhjentävästi, että tekoäly noudattaa annettua ohjetta.

Pitäisikö sinun nyt luottaa siihen tekoälyyn?

Sallikaa minun auttaa selvittämään ajatuksesi tästä avoimesta kysymyksestä.

Osoittautuu, että verkkoroistot onnistuivat soluttautumaan tekoälyyn ja saamaan tekoälyn suorittamaan X ja silti syöttämään kyberhakkereille kaikki tekoälyn keräämät tiedot. Näin tekemällä nämä pahantekijät alittavat salakavalasti yksityisyydensuojan. Et ole onnekkaasti tietoinen siitä, että tämä tapahtuu tekoälyn alla.

Tämän lisätyn tiedon myötä esitän sinulle saman kysymyksen uudelleen.

Luotatko siihen tekoälyyn?

Uskallan väittää, että useimmat ihmiset ilmoittaisivat heti niin varmasti tekevät emme luota tähän tiettyyn tekoälyyn. He saattoivat luottaa siihen aiemmin. He päättävät nyt olla pitämättä tekoälyä luotettavana.

Muutama tähän yksinkertaiseen esimerkkiin perustuva keskeinen oivallus on pohdinnan arvoinen:

  • Luottamuksen dynamiikka. Jopa parhaat aikeet kattaa kaikki perusteet, joilla varmistetaan, että tekoälyn etiikka on sisäänrakennettu tekoälyjärjestelmään, ei takaa sitä, millainen tekoäly saattaa osoittautua tai siitä tulee. Kun tekoäly on otettu käyttöön, ulkopuoliset voivat mahdollisesti heikentää eettisiä tekoälyä.
  • Luottamuksen heikentäminen sisältä. Luotettavuuden alentamisen ei välttämättä tarvitse olla ulkopuolista. Tekoälyjärjestelmää säännöllisesti ylläpitävä sisäpiiriläinen saattaa erehtyä ja heikentää tekoälyä olemaan vähemmän luotettava. Tämä tekoälykehittäjä saattaa olla tietämätön siitä, mitä he ovat saaneet aikaan.
  • Luottamuksen tahattomat kompromissit. Itsesäätyvä tai itsesäätelevä tekoäly saattaa jossain vaiheessa mukautua ja siirtyä epäluotettavalle alueelle. Ehkä tekoäly yrittää vahvistaa tekoälyn läpinäkyvyyttä, mutta silti samanaikaisesti ja sopimattomasti vaarantaa yksityisyyden näkökohdat.
  • Luottamuksen hajoaminen. Pyrkimys saavuttaa kaikki tekoälyn eettiset periaatteet samalla äärimmäisellä luotettavuusasteella ei yleensä ole helposti kannattavaa, koska niillä on usein ristikkäisiä tarkoituksia tai niillä on muita luontaisia ​​mahdollisia ristiriitoja. On melko idealisoitua näkökulmaa uskoa, että kaikki eettiset tekoälysäännöt ovat unenomaisesti kohdistettuja ja kaikki saavutettavissa jossain yhtä suuressa määrin.
  • Luottamuksen saavuttaminen voi olla kallista. Luotettavan tekoälyn huippuluokan saavuttamisen kustannukset suorittamalla erilaisia ​​laajoja ja tyhjentäviä vaiheita ja noudattamalla tekoälyn eettisten periaatteiden litaniaa ovat suhteellisen korkeat. Voit helposti väittää, että kustannukset olisivat kohtuuttomat, kun otetaan huomioon joidenkin tekoälyjärjestelmien käyttöön ottaminen, joilla on muuten yhteiskunnalle tärkeää arvoa, vaikka tekoäly olisikin luotettavuustoiveesta vähemmän kuin ihanteellinen.
  • Ja niin edelleen.

Älä tulkitse edellisiä huomautuksia väärin niin, että meidän pitäisi jotenkin välttää ponnistelut luotettavan tekoälyn perusteelliseen rakentamiseen ja käyttöön ottamiseksi. Heittäisit ikään kuin vauvan ulos kylpyvedellä. Oikea tulkinta on, että meidän on tehtävä noita luottamuksellisia toimia saadaksemme tekoälyn luotettavan harkinnan piiriin, mutta se ei kuitenkaan yksin ole parannuskeino tai hopealuoti.

Monipuoliset polut luotettavaan tekoälyyn

On olemassa tärkeitä muita monitahoisia tapoja pyrkiä kohti luotettavaa tekoälyä.

Esimerkiksi, kuten olen aiemmin käsitellyt kolumneissani, lukemattomien uusien tekoälyä koskevien lakien ja määräysten tarkoituksena on saada tekoälyn tekijöitä luottamaan luotettavaa tekoälyä, katso linkki tähän ja linkki tähän.

Nämä lailliset suojakaiteet ovat ratkaisevan tärkeitä yleisenä keinona varmistaa, että tekoälyn suunnittelijat ovat täysin vastuussa tekoälystään. Ilman tällaisia ​​mahdollisia oikeuskeinoja ja laillisia rangaistuksia tekoälyn markkinoille ryöstäjät jatkavat todennäköisesti niin vähällä tai vakavalla huomiolla luotettavan tekoälyn saavuttamiseen. Voisin erityisesti lisätä, että jos nämä lait ja määräykset ovat huonosti suunniteltuja tai puutteellisesti täytäntöönpantuja, ne voivat valitettavasti heikentää luotettavan tekoälyn tavoittelua, ehkä ironisesti ja oudolla tavalla edistää epäluotettavaa tekoälyä luotettavan tekoälyn sijaan (katso lisäselvityksiä sarakekeskusteluistani).

Olen myös ollut vankkumaton sen asian puolestapuhuja, johon olen kiihkeästi viitannut AI suojelusenkeli robotit (katso tiedotukseni osoitteessa linkki tähän). Tämä on tuleva menetelmä tai lähestymistapa, jolla yritetään taistella tulta tulella, nimittäin tekoälyn käyttäminen auttamaan meitä käsittelemään muita tekoälyjä, jotka saattavat olla tai eivät ole luotettavia.

Ensinnäkin taustakonteksti on hyödyllinen.

Oletetaan, että luotat tekoälyjärjestelmään, jonka luotettavuudesta et ole varma. Keskeinen huolenaihe voi olla se, että olet yksin yrittäessäsi selvittää, onko tekoälyyn luottaa vai ei. Tekoäly on mahdollisesti laskennallisesti nopeampi kuin sinä ja voi hyödyntää sinua. Tarvitset jonkun tai jotain puolellasi auttamaan.

Yksi näkökulma on se, että aina pitäisi olla ihmissilmukassa oleva ihminen, joka auttaa sinua käyttäessäsi tekoälyjärjestelmää. Tämä on kuitenkin ongelmallinen ratkaisu. Jos tekoäly toimii reaaliajassa, mistä keskustelemme hetken aikaa, kun on kyse tekoälypohjaisten itseohjautuvien autojen tulosta, ihmisen silmukassa oleminen ei ehkä riitä. Tekoäly saattaa toimia reaaliajassa, ja siihen mennessä, kun nimetty ihmissilmukassa oleva ihminen tulee kuvaan selvittääkseen, toimiiko tekoäly oikein, katastrofaalinen seuraus on saattanut jo tapahtua.

Sivuhuomautuksena tämä tuo esiin toisen luottamukseen liittyvän tekijän. Määritämme yleensä luottamustason tilanteen tai tilanteen perusteella. Saatat luottaa täysin taaperopojasi tai tyttäresi uskolliseen sinua kohtaan, mutta jos olet vaeltamassa ja päätät luottaa siihen, että taapero kertoo, onko turvallista astua kallion reunalle, olisit mielestäni viisas. pohtia, voiko taapero antaa tällaisia ​​elämän tai kuoleman neuvoja. Lapsi saattaa tehdä sen tosissaan ja vilpittömästi, mutta hän ei kuitenkaan pysty antamaan tällaisia ​​neuvoja riittävästi.

Sama käsite liittyy luottamukseen tekoälyn suhteen. Tekoälyjärjestelmä, jota käytät tammi- tai shakkipelaamiseen, ei todennäköisesti ole mukana elämän tai kuoleman pohdinnassa. Voit olla helpompi hoitaa luottamustehtäväsi. Tekoälypohjainen itseajava auto, joka kiihtyy moottoritiellä suurilla nopeuksilla, vaatii paljon kovempaa luottamusta. Tekoälyjärjestelmän pieninkin virhe voi johtaa suoraan sinun ja muiden kuolemaan.

Global Deloitte AI Instituten toiminnanjohtajan ja kirjan kirjoittajan Beena Ammanathin julkaistussa haastattelussa Luotettava tekoäly, samankaltainen painopiste ottaa huomioon kontekstuaaliset näkökohdat, joissa tekoälyn luotettavuus tulee esiin: "Jos rakennat tekoälyratkaisua, joka tekee potilasdiagnoosin, oikeudenmukaisuus ja puolueettomuus ovat erittäin tärkeitä. Mutta jos rakennat algoritmia, joka ennustaa suihkumoottorin vian, oikeudenmukaisuus ja harha eivät ole yhtä tärkeitä. Luotettava tekoäly on todella rakenne, joka saa sinut pohtimaan luottamuksen ulottuvuuksia organisaatiossasi” (VentureBeat22. maaliskuuta 2022).

Kun keskustelet luotettavasta tekoälystä, voit tulkita tämän aiheen monin tavoin.

Esimerkiksi luotettava AI on jotain, jota me kaikki pidämme toivottavana ja pyrkivänä tavoitteena, nimittäin se, että meidän pitäisi haluta suunnitella ja levittää luotettava tekoäly. On olemassa toinenkin tunnuslauseen käyttö. Hieman vaihtoehtoinen käyttötapa on se luotettava AI on tila tai mittaustila, jossa joku voi väittää luoneensa tekoälyjärjestelmän, joka on esimerkki luotettavasta tekoälystä. Voit myös käyttää lausetta luotettava AI ehdottaa menetelmää tai lähestymistapaa, jolla voidaan saavuttaa tekoälyn luotettavuus. Jne.

Tähän liittyen uskon, että ymmärrät, etteivät kaikki tekoäly ole samanlaisia ​​ja että meidän on oltava tietoisia siitä, ettemme anna yleispäteviä lausuntoja kaikesta tekoälystä. Tietty tekoälyjärjestelmä eroaa todennäköisesti merkittävästi toisesta tekoälyjärjestelmästä. Toinen näistä tekoälyjärjestelmistä saattaa olla erittäin luotettava, kun taas toinen voi olla vain vähän luotettava. Ole varovainen olettaessasi, että tekoäly on monoliitti, joka on joko täysin luotettava tai täysin epäluotettava.

Näin ei yksinkertaisesti ole.

Haluaisin seuraavaksi lyhyesti käsitellä joitain meneillään olevaa luotettavaa tekoälyä koskevaa tutkimustani, joka saattaa kiinnostaa sinua, ja kattaa AI suojelusenkeli robotit.

Näin se menee.

Olisit aseistettu tekoälyjärjestelmällä (AI suojelusenkelibotti), joka on suunniteltu mittaamaan jonkin muun tekoälyjärjestelmän luotettavuutta. Tekoälyn suojelusenkelibotti keskittyy ensisijaisesti turvallisuutesi. Ajattele tätä ikään kuin sinulla olisi keinot valvoa luottamaasi tekoälyä, kun sinulla on erilainen tekoälyjärjestelmä todellisessa taskussasi, ehkä älypuhelimessasi tai muissa vastaavissa laitteissa. Sananlaskuinen tekoälyhuoltajasi voi laskea sillä perusteella, että tekoäly, johon luotat, myös tekee. Se toimii suurilla nopeuksilla ja laskee tilanteen reaaliajassa, paljon nopeammin kuin silmukassa oleva ihminen voisi tehdä niin.

Saatat ensi silmäyksellä ajatella, että tekoälyllä, johon jo luotat, pitäisi olla jotain sisäinen Tekoälysuojakaiteet, jotka tekevät samoin kuin tämä erikseen laskeva tekoälyn suojelusenkelibotti. Kyllä, se olisi varmasti toivottavaa. Yksi epäkohta on, että tekoälyjärjestelmään rakennetut AI-suojakaiteet voivat olla kiinteästi ja haitallisesti kohdistettu tekoälyyn sinänsä, joten oletettu AI-suojakaide ei enää pysty tietyssä mielessä itsenäisesti varmistamaan tai validoimaan tekoälyä.

Vastakkainen ajatus on, että tekoälyn suojelusenkelibotti on itsenäinen tai kolmannen osapuolen tekoälymekanismi, joka eroaa käyttämästäsi tekoälystä. Se on toisen tekoälyn ulkopuolella ja on edelleen omistautunut sinulle eikä valvottavalle tai arvioitavalle tekoälylle.

Yksinkertainen tapa ajatella tätä voidaan ilmaista seuraavilla yksinkertaistetuilla yhtälömäisillä lauseilla. Voisimme sanoa, että "P" haluaa mahdollisesti luottaa "R:ään" suorittamaan tietyn tehtävän "X":

Tämä olisi seuraava, kun vain ihmiset ovat mukana:

  • Henkilö P luottaa henkilön R suorittamaan tehtävän X.

Kun päätämme luottaa tekoälyyn, lausunto muuttuu seuraavaksi:

  • Henkilö P luottaa tekoälyinstanssiin R:n suorittamaan tehtävän X.

Voimme lisätä tekoälyn suojelusenkelibotin sanomalla näin:

  • Henkilö P luottaa tekoälyinstanssiin-R:ään suorittamaan tehtävän X, koska sitä valvoo tekoälyn suojelusenkeli-instanssi-Z

Tekoälyn suojelusenkelibotti arvioi väsymättä ja hellittämättä tekoälyä, johon luotat. Sellaisenaan kätevä tekoälyhuoltajasi saattaa varoittaa, että tämän toisen tekoälyn luottamus on perusteeton. Tai tekoälyn huoltaja saattaa olla sähköisessä vuorovaikutuksessa toisen tekoälyn kanssa yrittääkseen varmistaa, että kaikki luotettavuudesta poikkeava poikkeama korjataan nopeasti ja niin edelleen (katso tiedotukseni tällaisista yksityiskohdista osoitteessa linkki tähän).

Trusty Trust Reservoir -metafora

Koska keskustelemme vaihtelevista luottamuksen tasoista, saatat löytää käyttökelpoisen vertauskuvan luotettavuudesta ajatellen luottamusta eräänlaisena säiliönä.

Sinulla on tietty luottamus tiettyyn henkilöön tai asiaan tietyssä tilanteessa tietyllä hetkellä. Luottamuksen taso nousee tai laskee riippuen siitä, mitä muuta kyseiseen henkilöön tai asiaan liittyen tapahtuu. Luottamus voi olla nollatasolla, kun sinulla ei ole minkäänlaista luottamusta henkilöä tai asiaa kohtaan. Luottamus voi olla negatiivista, kun uskallat olla epäluuloinen kyseiseen henkilöön tai asiaan.

Tekoälyjärjestelmien tapauksessa luottamuksesi tiettyyn tekoälyyn, johon luotat tietyssä tilanteessa, kasvaa tai laskee riippuen siitä, miten mittaat tekoälyn luotettavuutta. Toisinaan saatat olla hyvin tietoinen tästä vaihtelevasta luottamuksen tasosta tekoälyä kohtaan, kun taas toisissa tapauksissa saatat olla vähemmän tietoinen ja enemmän aavistellen arvioiden luotettavuutta.

Tapoja, joista olemme tässä keskustelleet keinoista parantaa tekoälyn luottamustasoa, ovat:

  • Tekoälyn etiikan noudattaminen. Jos tekoäly, johon luotat, on kehitetty yrittämällä noudattaa oikeita tekoälyn eettisiä sääntöjä, oletettavasti käyttäisit tätä ymmärrystä lisätäksesi luottamustasoa kyseiselle tekoälyjärjestelmälle. Sivuhuomautuksena on myös mahdollista, että saatat yleistää myös muihin tekoälyjärjestelmiin niiden luotettavuudesta, vaikka tämä voi toisinaan olla harhaanjohtava muoto mitä kutsun. AI-luottamusaura leviää (ole varovainen tehdessäsi tätä!).
  • Käytä Human-in-The-Loop. Jos tekoälyssä on in-the-loop-ihminen, saatat lisätä positiivisesti koettua luottamustasi tekoälyyn.
  • Luo lakeja ja määräyksiä. Jos tähän tiettyyn tekoälytyyppiin liittyy lakeja ja määräyksiä, saatat myös lisätä luottamustasi.
  • Käytä AI Guardian Angel Botia. Jos sinulla on tekoälyn suojelusenkelibotti valmiina, myös tämä nostaa luottamustasi entisestään.

Kuten aiemmin mainittiin, luottamus voi olla melko hauras ja hajota hetkessä (eli luottamusvarasto tyhjentää nopeasti ja yhtäkkiä kaiken muodostuneen luottamuksen).

Kuvittele, että olet tekoälypohjaisessa itseajavassa autossa ja tekoäly tekee yhtäkkiä radikaalin oikean käännöksen, jolloin pyörät vinkuvat ja melkein pakottaa autonomisen ajoneuvon vaaralliseen kaatumiseen. Mitä tapahtuisi luottamustasollesi? Vaikuttaa siltä, ​​​​että vaikka olisit aiemmin pitänyt tekoälyä korkealla luottamustasolla, laskeisit dramaattisesti ja äkillisesti luottamustasosi, mikä on järkevää.

Tämän painavan keskustelun tässä vaiheessa lyön vetoa, että kaipaat lisää havainnollistavia esimerkkejä, jotka voisivat esitellä luotettavan tekoälyn luonnetta ja laajuutta. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jokseenkin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Kertooko tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo mitään luotettavan tekoälyn tavoittelusta, ja jos on, mitä tämä osoittaa?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja luotettava tekoäly

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Luotan siihen, että se tarjoaa riittävän litanian varoituksia, jotka tukevat sitä, mitä aion kertoa.

Olemme nyt valmiita sukeltamaan syvälle itseohjautuviin autoihin ja luotettavaan tekoälyyn.

Luottamus on kaikki kaikessa, etenkin tekoälypohjaisten itseohjautuvien autojen tapauksessa.

Yhteiskunta näyttää tarkkailevan varovaisesti itseohjautuvien autojen ilmaantumista. Toisaalta on suuri toive, että todellisten itseohjautuvien autojen tulo vähentää todistetusti vuotuisten autokuolemien määrää. Pelkästään Yhdysvalloissa kuolee vuosittain noin 40,000 2.5 ja loukkaantuu noin XNUMX miljoonaa auto-onnettomuudessa, katso tilastokokoelmani osoitteessa linkki tähän. Ihminen juo ja ajaa. Ihmiset ajavat hajamielisesti. Auton ajamisen tehtävä näyttää koostuvan kyvystä toistuvasti ja erehtymättä keskittyä ajamiseen ja välttää kolareihin joutumista. Sellaisena voisimme unelmattomasti toivoa, että tekoälyjärjestelmät ohjaavat itse ajavia autoja toistuvasti ja erehtymättä. Voit tulkita itseohjautuvat autot kahdeksi tekijäksi, joka koostuu autokolareissa kuolleiden ja loukkaantumisten määrän vähentämisestä sekä mahdollisesta liikkuvuuden tarjoamisesta paljon laajemmalta ja esteettömältä pohjalta.

Mutta sillä välin huolestuttaa yhteiskunnan käsitys siitä, ovatko itseajavat autot riittävän turvallisia liikkuakseen yleisillä teillämme.

Jos edes yksi itseohjautuva auto joutuu kolariin tai törmäykseen, joka johtaa yhteen kuolemaan tai vakavaan vammaan, voit todennäköisesti ennakoida, että nykypäivän jonkin verran kertynyt luottamus noita tekoälyyn perustuvia kuljettajattomia autoja kohtaan putoaa jyrkästi. Näimme tämän tapahtuvan, kun Arizonassa tapahtui nyt pahamaineinen tapaus, joka koski jonkin verran (ei oikeastaan) itseajavaa autoa, joka törmäsi jalankulkijaan ja tappoi jalankulkijan (katso uutiseni osoitteessa tämä linkki täällä).

Jotkut asiantuntijat huomauttavat, että on epäreilua ja sopimatonta perustaa itseohjautuvien tekoälyautojen luottamus siihen seikkaan, että vain yksi tällainen seuraava kuolemaan johtava kolari tai törmäys voisi heikentää jo ennestään suhteellisen onnettomuudettomia yleisiä tiekokeita. Lisäksi epäoikeudenmukaiselta pohjalta on todennäköistä, että riippumatta siitä, mikä tekoälyn itseohjautuva automerkki tai -malli joutuisi surulliseen tapaukseen, yhteiskunta epäilemättä syyttäisi kaikkia itse ajavia automerkkejä.

Itse ajavien autojen kokonaisuus saatetaan summittaisesti tahrata, ja koko teollisuus saattaa kärsiä valtavasta vastareaktiosta, joka johtaisi kaikkien julkisten teiden testien mahdolliseen sulkemiseen.

Sellaisen takaiskun myötävaikuttaja löytyy järjettömistä julistuksista, joita suorapuheiset itseajavien autojen kannattajat väittävät, että kaikki kuljettajattomat autot ovat törmämättömiä. Tämä ajatus murtumattomuudesta ei ole pelkästään täysin väärä (katso linkki tähän), se on salakavalaisesti perustamassa itseajavaa autoteollisuutta täyttämään täysin turhia odotuksia. Nämä omituiset ja saavuttamattomat lausunnot siitä, että itseohjautuvien autojen aiheuttamia kuolemantapauksia ei tapahdu, ruokkivat väärinkäsitystä, jonka mukaan kaikki kuljettajattomat kolarit ovat varma merkki siitä, että koko sarja ja kaboodle ovat turhia.

On selvää surullista tajuta, että edistys kohti itseohjautuvia autoja ja yhteiskunnallisen luottamuksen tuuma kerrallaan kasautuminen voidaan kaataa hetkessä. Siitä tulee hirveä osoitus luottamuksen hauraudesta.

Yhteenveto

Monet autonvalmistajat ja itseohjautuvat teknologiayritykset noudattavat yleensä tekoälyn eettisiä periaatteita yrittäessään rakentaa ja kehittää luotettavaa tekoälyä turvallisten ja luotettavien tekoälypohjaisten itseohjautuvien autojen osalta. Huomaa, että jotkut näistä yrityksistä ovat vahvempia ja omistautuneita eettisille tekoälysäännöille kuin toiset. On myös satunnaisia ​​marginaalisia tai aloittelijoita itseajaviin autoihin liittyviä startup-yrityksiä, jotka näyttävät heittävän syrjään suuren osan tekoälyn eettisistä kulmakivistä (katso arvosteluni osoitteessa linkki tähän).

Muilla rintamilla uusia itseajavia autoja koskevia lakeja ja määräyksiä on vähitellen lisätty lakikirjoihin. Eri asia on se, onko heillä tarvittavat hampaat niiden tukemiseen, samoin kuin otetaanko näiden lakien täytäntöönpano vakavasti vai jätetäänkö se huomiotta (katso kolumniani analyyseja tästä).

Tässä on myös korkean teknologian näkökulma. Olen ennustanut, että näemme vähitellen tekoälyn suojelusenkelibottien muunnelmia, jotka nousevat etualalle autonomisten ajoneuvojen ja itseohjautuvien autojen areenalla. Emme ole vielä siellä. Tämä tulee yleistymään, kun itseohjautuvien autojen suosio laajenee.

Tämä viimeinen kohta tuo esiin kuuluisan linjan luottamuksesta, jonka tiedät epäilemättä jo ulkoa.

Luota mutta varmista.

Voimme antaa itsellemme luvan laajentaa luottamustamme, ehkä avokätisesti. Samaan aikaan meidän tulee myös katsoa kuin haukka varmistaaksemme, että synnyttämämme luottamus vahvistetaan sekä sanoilla että teoilla. Luotetaan tekoälyyn, mutta varmistamme loputtomasti, että luotamme asianmukaisesti ja silmät auki.

Voit luottaa minuun siinä.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/