Tekoälyn etiikka, joka kohtaa tekoälyn algoritmisen monokulttuurin salakavalan samanmielisyyden, mukaan lukien autonomiset itseajavat autot

Katsotaanpa hieman hämmentävää ongelmaa.

Sanotaan, että suuret mielet ajattelevat samalla tavalla.

Olet epäilemättä kuullut tuon kätevän sanan monta kertaa. Joidenkin joutokeskustelujen aikana, jos sinä ja kollegasi tai ystävä onnistutte pääsemään samaan ajatukseen samalla hetkellä, toinen teistä huudahtaa tyytyväisenä, että suuret mielet ajattelevat samalla tavalla. Tämä on epäilemättä imarteleva lausunto sinusta ja lähimmäisistäsi.

Voimme lisätä tähän sekoitukseen toisenkin viisaan viisauden.

Sanotaan, että tyhmät harvoin eroavat toisistaan.

Sanon sananlasku hieman uudelleen. Näennäisesti vastaava sanonta olisi, että tyhmät ajattelevat samalla tavalla. Ymmärrän, että saatat kiusata kuuluisan linjan uudelleenlaatimisen kanssa. Siitä huolimatta näyttää suhteellisen täsmälliseltä, että jos tyhmät harvoin eroavat toisistaan, voit päätellä, että tyhmät pyrkivät pääosin suuntautumaan samanlaiseen ajatteluun. Toivon, että se ei aiheuta liikaa närästystä tai tyrmistystä pyhitetyn viisauden poikkeavan muutoksen suhteen.

Olemme nyt tämän dilemman vaarallisella hetkellä.

Oletetaan, että myönnämme avoimesti sen käsityksen, että suuret mielet ajattelevat samalla tavalla, on yleensä totta, ja myönnämme samalla hengityksellä väitteen, että tyhmät taipumus ajatella samalla tavalla on myös totta. Kun kohtaat ryhmän ihmisiä, jotka kaikki ajattelevat samalla tavalla, minun on esitettävä sinulle yksinkertainen kysymys.

Ovatko he kaikki mahtavia mieliä vai ovatko he kaikki typeriä?

Yikes!

Suurmielistä annetun säännön mukaan heillä on oletettavasti suurimielinen. Toisaalta typeriä koskevan säännön mukaan he ovat ilmeisesti kaikki tyhmiä. Meillä näyttää olevan ongelma. Saatat änkyttää, että ehkä nämä samanmieliset ajattelijat ovat sekä hyvin ajattelevia että typeriä. Voitko olla molemmat yhtä aikaa? Vaikuttaa siltä, ​​että yrität esittää kysymyksen.

Saatat kiihkeästi väittää, että samanlainen ajattelu ei kerro mitään siitä, ajatteleeko kokoontuminen paljon vai typerää. Olemme ehkä vahingossa kääntäneet logiikan ylösalaisin. Kaikki ihmiset, jotka ajattelevat samalla tavalla, ajattelevat vain samalla tavalla. Et voi yrittää peittää heidän ajattelutapaansa leimautumalla joko suurien tai tyhmien mielien joukkoon. He voivat olla sekaisin mielin. He saattavat olla vakuuttuneita mieliä. Pohjimmiltaan luonnehdinta ei välttämättä kuulu jokseenkin väärään dikotomiaan, jonka mukaan vain olla suuri tai typerä.

On kaikenlaisia ​​oivalluksia, jotka kiinnittyvät asetuksiin, joissa on mukana samanmielisiä ihmisiä.

Mahatma Gandhin kerrotaan sanoneen, että pieni ryhmä määrätietoisia ja samanhenkisiä ihmisiä voi muuttaa historian kulkua. Tämä osoittaa varmasti samanmielisyyden valtavan voiman. Platon varoitti, että kun on kyse suljetuista mielistä, joista saatat olettaa, että periksiantamaton joukko samanmielisiä ihmisiä voisi olla, voit saada tämän: "Tätä yksinään on pelättävä: suljettu mieli, nukkuva mielikuvitus, hengen kuolema."

Mihin olen menossa tämän samanlaisten mielien uteliaisuuden litanialla?

Osoittautuu, että on olemassa huoli siitä, että tekoäly vie meidät vähitellen väistämättömälle ja ei-toivottavalle polulle, jossa samanmieliset tekoälyalgoritmit hallitsevat jokapäiväistä toimintaamme. Tätä kutsutaan tiivistetysti Tekoälyalgoritminen monokulttuuri.

Olemme menossa kohti tilannetta, jossa yhteiskunta luottaa kaikkialle leviäviin tekoälyjärjestelmiin, joilla voi olla sama tai lähes sama taustalla oleva algoritminen kapasiteetti. Tässä mielessä olemme haavoittuvia samanmielisyydelle massiivisessa mittakaavassa, jota tulee olemaan kaikkialla maailmassa.

Ennen kuin menen tarkemmin tähän aiheeseen, haluan heti selventää, että en viittaa tekoälyyn, joka on tunteva. Kuten selitän hetken kuluttua, meillä ei ole tuntevaa tekoälyä tänään. Huolimatta niistä villeistä ja suurisilmäisistä otsikoista, jotka julistavat, että meillä on tunteva tekoäly, tämä ei todellakaan pidä paikkaansa, ja se pitäisi jättää huomiotta.

Syy, miksi korostan tätä tärkeää seikkaa, on se, että kun kuvaan tekoälyä "samanhenkisenä", en halua sinun hyppäävän siihen johtopäätökseen, että nykypäivän tekoäly vastaa jollain tapaa ihmismieltä. Ei varmasti ole. Älä tee sellaista antropomorfista assosiaatiota. Samanmielisten ilmaisujen käyttöni on tarkoitettu vain korostamaan, että tekoälyalgoritmit voidaan laatia siten, että ne toimivat samalla tavalla. He eivät kuitenkaan "ajattele" millään tavalla sitä, mitä voisimme pitää ihmisen ajattelun laaduna. Kerron tästä pian lisää tässä.

Tekoäly, joka on "samanmielinen" algoritmisen monokulttuurisen rakenteen suhteen, on jotain, jonka voimme arvioida yhtä aikaa huonoksi ja hyväksi. Asioiden huono puoli on, että jos nämä yleisesti käytetyt ja käytetyt samanlaisuus-AI ovat täynnä harhoja ja syrjiviä sulkeumia, tekoälyä käytetään todennäköisesti salakavalasti laajalti ja levittää näitä epämiellyttäviä käytäntöjä kaikkialla. Asioiden hyvä puoli on, että jos tekoäly on asianmukaisesti suunniteltu ja tehty ilman ennakkoluuloja ja syrjiviä sisällytyksiä, saamme toivottavasti oikeudenmukaisuuden leviämään laajalti. Kaikella tällä on näyttäviä tekoälyn etiikkaa ja eettisiä tekoälyvaikutuksia. Jatkuva ja laaja kattavuus tekoälyn eettisyydestä ja eettisestä tekoälystä, katso linkki tähän ja linkki tähän.

Tässä on kätevä seitsemän peukalosääntöäni tekoälyalgoritmisesta monokulttuurista:

1) Tekoälyalgoritminen monokulttuuri koostuu samojen tai lähes samojen taustalla olevien algoritmien käyttämisestä, joita sitten käytetään laajasti ihmisiin vaikuttavien päätösten tekemiseen.

2) Tällainen tekoäly voi tarjota johdonmukaisuutta ja luotettavuutta, vaikka tämä onkin kaksiteräinen miekka

3) Toinen puoli on se, että haitallisia harhoja välittävä tekoäly leviää helposti ja sitä käytetään yhä uudelleen ja uudelleen epäsuotuisilla tavoilla (se on huonoa)

4) Toinen puoli on, että oikeudenmukaisuutta ja muita oikeutetusti toivottavia ominaisuuksia ilmentävää tekoälyä voitaisiin onneksi levittää laajalle (se on hyvä)

5) Tämän kaliiperin homogeenisessä tekoälyssä on tietynlainen järjestelmän laajuinen haavoittuvuus, ja häiritsevät shokit voivat heikentää sen

6) Tekoälyn heterogeenisyyttä voitaisiin joskus suosia, vaikka tämä herättää huolta mahdollisista valtavista ristiriitaisuuksista

7) Meidän kaikkien on pohdittava tekoälyalgoritmista monokulttuuria, katsottava sitä ja taisteltava sen kanssa

Ennen kuin käsittelemme lisää lihaa ja perunoita tekoälyalgoritmisen monokulttuurin taustalla olevista villeistä ja epämääräisistä näkökohdista, laaditaanpa joitain lisäperusasioita syvästi oleellisista aiheista. Meidän täytyy sukeltaa lyhyesti tekoälyn etiikkaan ja erityisesti koneoppimisen (ML) ja syväoppimisen (DL) tuloon.

Saatat olla hämärästi tietoinen siitä, että yksi tämän päivän kovimmista äänistä tekoälyalalla ja jopa tekoälykentän ulkopuolella on huutaminen eettisen tekoälyn suuremman vaikutelman puolesta. Katsotaanpa, mitä tarkoittaa viitata tekoälyn etiikkaan ja eettiseen tekoälyyn. Tämän lisäksi tutkimme, mitä tarkoitan puhuessani koneoppimisesta ja syvästä oppimisesta.

Eräs tietty AI Ethics -segmentti tai osa, joka on saanut paljon mediahuomiota, koostuu tekoälystä, jossa on epäsuotuisia ennakkoluuloja ja epätasa-arvoa. Saatat olla tietoinen siitä, että kun uusin tekoälyn aikakausi alkoi, vallitsi valtava innostus siitä, mitä jotkut nykyään kutsuvat. AI Hyvä. Valitettavasti aloimme todistaa tuon purskahtavan jännityksen kannoilla AI huono. Esimerkiksi useiden tekoälyyn perustuvien kasvojentunnistusjärjestelmien on paljastettu sisältävän rotu- ja sukupuoliharhaa, joista olen keskustellut osoitteessa linkki tähän.

Pyrkimykset taistella vastaan AI huono ovat aktiivisesti käynnissä. Paitsi äänekäs juridinen väärinkäytösten hillitsemiseen tähtäävät pyrkimykset omaksua tekoälyn etiikka tekoälyn ilkeyden korjaamiseksi. Ajatus on, että meidän pitäisi ottaa käyttöön ja tukea keskeisiä eettisiä tekoälyn periaatteita tekoälyn kehittämisessä ja levittämisessä tehden näin alentaaksemme AI huono ja samanaikaisesti julistaa ja edistää parempaa AI Hyvä.

Tähän liittyvään ajatukseen, kannatan tekoälyn käyttämistä osana tekoälyongelmien ratkaisua ja tulen torjumista tulella tällä ajattelutavalla. Voisimme esimerkiksi upottaa eettisiä tekoälykomponentteja tekoälyjärjestelmään, joka valvoo, kuinka muu AI tekee asioita ja saa siten mahdollisesti kiinni reaaliajassa kaikki syrjivät toimet, katso keskusteluni osoitteessa linkki tähän. Meillä voisi olla myös erillinen tekoälyjärjestelmä, joka toimii eräänlaisena AI Ethics -monitorina. Tekoälyjärjestelmä toimii valvojana, joka seuraa ja havaitsee, kun toinen tekoäly on menossa epäeettiseen kuiluun (katso analyysini tällaisista ominaisuuksista linkki tähän).

Hetken kuluttua kerron teille joitain tekoälyn etiikan taustalla olevia yleisiä periaatteita. Tällaisia ​​listoja kelluu siellä täällä paljon. Voisi sanoa, että ei ole vielä olemassa yksittäistä luetteloa yleismaailmallisesta vetovoimasta ja yhteisymmärryksestä. Se on ikävä uutinen. Hyvä uutinen on, että ainakin AI Ethics -luetteloita on helposti saatavilla ja ne ovat yleensä melko samanlaisia. Kaiken kaikkiaan tämä viittaa siihen, että eräänlaisen perustellun lähentymisen avulla löydämme tiemme kohti yleistä yhteneväisyyttä siitä, mistä tekoälyn etiikka koostuu.

Käydään ensin lyhyesti läpi joitakin yleisiä eettisiä tekoälyohjeita havainnollistaaksemme, minkä pitäisi olla olennaista jokaiselle tekoälyä luovalle, harjoittelevalle tai käyttävälle.

Esimerkiksi, kuten Vatikaani totesi Rooma kutsu tekoälyn etiikkaan ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän tunnistamansa kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Avoimuus: Periaatteessa tekoälyjärjestelmien on oltava selitettävissä
  • sisällyttäminen: Kaikkien ihmisten tarpeet on otettava huomioon, jotta kaikki voivat hyötyä ja kaikille yksilöille tarjotaan parhaat mahdolliset olosuhteet ilmaista itseään ja kehittyä.
  • vastuu: Tekoälyn käyttöä suunnittelevien ja ottavien on edettävä vastuullisesti ja läpinäkyvästi
  • Puolueettomuus: Älä luo puolueellisuutta tai toimi sen mukaan turvaten siten oikeudenmukaisuutta ja ihmisarvoa
  • Luotettavuus: Tekoälyjärjestelmien tulee pystyä toimimaan luotettavasti
  • Turvallisuus ja yksityisyys: Tekoälyjärjestelmien on toimittava turvallisesti ja kunnioitettava käyttäjien yksityisyyttä.

Kuten Yhdysvaltain puolustusministeriö (DoD) totesi Tekoälyn käytön eettiset periaatteet ja kuten olen käsitellyt perusteellisesti osoitteessa linkki tähän, nämä ovat heidän kuusi ensisijaista tekoälyn eettistä periaatetta:

  • Vastaava: DoD-henkilöstö käyttää asianmukaista harkintaa ja huolellisuutta samalla kun he ovat vastuussa tekoälyominaisuuksien kehittämisestä, käyttöönotosta ja käytöstä.
  • oikeudenmukainen: Osasto ryhtyy tietoisiin toimiin minimoidakseen tahattoman harhan tekoälyominaisuuksissa.
  • jäljitettävissä: Osaston tekoälyvalmiuksia kehitetään ja otetaan käyttöön siten, että asiaankuuluvalla henkilöstöllä on asianmukainen ymmärrys tekoälyvalmiuksiin sovellettavista teknologiasta, kehitysprosesseista ja toimintamenetelmistä, mukaan lukien avoimet ja tarkastettavat menetelmät, tietolähteet sekä suunnittelumenettely ja dokumentaatio.
  • Luotettava: Osaston tekoälyominaisuuksilla on selkeät, tarkasti määritellyt käyttötarkoitukset, ja tällaisten ominaisuuksien turvallisuus, turvallisuus ja tehokkuus testataan ja varmistetaan määritellyissä käyttötarkoituksissa niiden koko elinkaaren ajan.
  • hallinnoitavissa: Osasto suunnittelee ja suunnittelee tekoälyvalmiuksia täyttämään niille aiotut toiminnot samalla kun sillä on kyky havaita ja välttää tahattomia seurauksia sekä kyky kytkeä irti tai deaktivoida käyttöönotetut järjestelmät, jotka osoittavat tahatonta toimintaa.

Olen myös keskustellut erilaisista tekoälyn eettisten periaatteiden kollektiivisista analyyseistä, mukaan lukien tutkijoiden laatiman joukon, joka tutki ja tiivisti lukuisten kansallisten ja kansainvälisten tekoälyn eettisten periaatteiden olemusta artikkelissa "The Global Landscape Of AI Ethics Guidelines" (julkaistu) sisään luonto), ja jota kattamani tutkitaan osoitteessa linkki tähän, joka johti tähän Keystone-luetteloon:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Kuten saatat suoraan arvata, näiden periaatteiden taustalla olevien yksityiskohtien selvittäminen voi olla erittäin vaikeaa. Vielä enemmän, pyrkimys muuttaa nämä laajat periaatteet joksikin täysin konkreettiseksi ja riittävän yksityiskohtaiseksi käytettäväksi tekoälyjärjestelmien luomisessa on myös kova pähkinä. Kokonaisuudessaan on helppo heiluttaa käsin siitä, mitä tekoälyn eettiset ohjeet ovat ja miten niitä yleensä tulisi noudattaa, kun taas tekoälykoodauksessa on paljon monimutkaisempi tilanne, kun tien kohtaamisen täytyy olla todellinen kumi.

Tekoälykehittäjien tulee hyödyntää tekoälyn eettisiä periaatteita sekä tekoälykehitystyötä hallinnoivien ja jopa tekoälyjärjestelmien ylläpitoa tekevien periaatteiden käyttöä. Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten aiemmin todettiin, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Varmistetaan myös, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluamme villisti spekuloida tunteva AI, tämä keskustelu voisi mennä radikaalisti eri suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (superälykkään tekoälyn mahdollisuudesta tutkimisestani, katso ks. kattavuus täällä).

Pidetään asiat maanläheisemmin ja harkitaan nykypäivän laskennallista tuntematonta tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Tekoälykehittäjät eivät myöskään välttämättä ymmärrä, mitä tapahtuu. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhaa.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Palataanpa keskittymiseen tekoälyalgoritmiseen monokulttuuriin.

Me kaikki näytämme tietävän, että nykypäivän yhteenliitetyssä digitaalisessa maailmassa meidät voidaan mustapalloilla, kun meillä on pienikin pieni tietokanta, joka näyttää kulkevan minne tahansa. Oletetaan esimerkiksi, että on olemassa tietokanta, joka sisältää osan siitä, että et ole luottokelpoinen. Tämä voi olla totta sinusta tai täysin väärä. Saatat olla tietoinen siitä, että tietokanta sisältää tämän tiedon, tai saatat olla täysin tietämätön siitä. Tämä on yksi suuri otos datan täynnä olevasta universumista, johon olemme kaikki uppoaneet.

Tietokanta, joka sisältää tämän indikaattorin, voisi helposti jakaa tämän tärkeän näkökohdan sinusta muiden tietokantojen kanssa muualla. Pienessä silmänräpäyksessä sähköisesti yhdistetyt tietokannat kaikkialla maailmassa voivat nyt lähettää lipun, että et ole luottokelpoinen. Jos päätät hakea lainaa, on todennäköistä, että jokin lainanhyväksyntäsovellus ottaa yhteyttä johonkin näistä tietokannoista ja hakee lipun, joka ilmoittaa, että sinut hylätään. Saatat yrittää saada lainaa ollessasi jossain päin maailmaa, ja sinut hylätään. Toiselle alueelle matkustamisesta ei ehkä ole juurikaan hyötyä. Tietokantojen yhteenliitettävyys ahdistaa sinua riippumatta siitä, kuinka pitkälle matkustat.

Onneksi on olemassa erilaisia ​​​​tietoja ja yksityisyyttä koskevia lakeja, joita on asteittain säädetty. Lait vaihtelevat huomattavasti maittain. Ne voivat myös vaihdella osavaltioittain. Mutta ainakin on tietoisuus vaaroista, jotka liittyvät tietoihin, jotka voivat levittää tietojasi nopeasti. Toivomme, että sinulla on oikeuskeino yrittää estää vääriä tietoja tai ainakin olla tietoinen siitä, että niitä on olemassa sinusta. Katso tiedotukseni osoitteessa linkki tähän yksityisyyden loukkauksista ja tekoälystä.

Voisi kai sanoa, että sinua koskevat tiedot ovat sananlaskutyyppinen "tagi, sinä olet se" -peli (jossa joskus haluamme olla merkitty henkilö ja toisinaan haluamme olla niin merkittyjä).

Hengitä syvään.

Oletetaan, että heiluttelemme taikasauvaa ja voimme ihmeen avulla varmistaa, että tämä sinua koskevien tietojen homogeenisuus ei tapahdu. Pystymme saamaan koko yhteiskunnan yhteen ja lopettamaan tällaiset teot. Saatat siis olettaa, että et ole enää tällaisten huolenaiheiden vaarassa.

Anteeksi, ettet menetä tekoälyalgoritmisen monokulttuurin aiheuttamat vaarat.

Tässä on miksi.

Palataan esimerkkiin lainan saamisesta. Kuvittele, että menet lainanantajalle ja he käyttävät tekoälyjärjestelmää, jolla on tietty algoritmi, jota kutsumme algoritmiksi Y. Sinun tapauksessasi, kun haet ja annat tietosi, algoritmi Y kirjoitetaan siten, että se määrittää lennossa matemaattisesti, pitäisikö laina hylätä vai ei. Pohjimmiltaan tämä algoritmi voi "päättää", että et ole luottokelpoinen.

Huomaa, että teeskentelemme tässä tapauksessa, että tekoäly ei ottanut yhteyttä tietokantaan yrittääkseen kerätä luottokelpoisuuttasi. Näin ollen ei ole mahdollista, että tekoäly teki laskun joidenkin tietojen perusteella, jotka olivat tietokannassa täällä tai siellä. Koko valinta tehtiin algoritmilla Y koskien laskelmia.

Tekoäly osoittaa, että olet hylännyt lainan. Olen varma, että olet pettynyt tähän tulokseen. Saatat kuitenkin kohauttaa olkapäitään ja valita toisen lainanantajan puoleen. Jälleen tiedät varmasti, ettei ole olemassa tietokantaa, joka tyrmäisi sinut kilpailusta. Mielestäsi sinun tarvitsee vain kokeilla eri lainanantajia ja saat lopulta vihreän valon.

Kun menet toisen lainanantajan puoleen, sinut hylätään jälleen kerran. Tämä on hämmentävää. Kokeile toista lainanantajaa, mutta sinut hylätään nopeasti. Yksi toisensa jälkeen jokainen yritys johtaa samaan järkyttävään tulokseen. Olet raivoissasi. Olet loputtomasti järkyttynyt.

Mitä ihmettä on tekeillä?

Ovatko kaikki nämä lainanantajat salaa tehneet salaliittoa varmistaakseen, ettet saa lainaa?

Lyhyt vastaus on "Ei", ja aiomme sanoa, että he eivät olleet salaliittoja sinänsä. Sen sijaan he kaikki sattuivat käyttämään algoritmia Y. He eivät "sovittaneet" siinä mielessä, että he kokoontuivat takahuoneeseen ja suostuivat käyttämään algoritmia Y tekoälyssään. Ei ollut mafiatyylistä tapaamista, jossa sanottiin, että he kaikki käyttäisivät algoritmia Y. Sivuhuomautuksena oletetaan, että niin voisi todellakin tapahtua, mutta keskustelun vuoksi jätämme nuo vaihtoehdot toistaiseksi sivuun. .

On täysin järkevä syy siihen, että kaikki nämä erilliset ja erilliset lainanantajat voivat käyttää algoritmia Y. Voi olla, että algoritmi Y on saatavilla avoimena lähdekoodina. Jokaisen eri lainanantajan tekoälykehittäjät ovat saattaneet vain ottaa yhteyttä avoimen lähdekoodin kirjastoon ja kopioida koodinpätkän tekoälyjärjestelmäänsä.

Tämä oli todennäköisesti helpoin ja nopein tapa saada työ tehtyä. Sinun ei tarvitse alusta alkaen yrittää suunnitella algoritmia Y. Muutaman minuutin online-käytössä koodaus on jo tehty puolestasi ja suoraan käyttövalmis. Kopioi ja liitä. Lisäksi saatat pystyä välttämään koodin virheenkorjausta. Oletuksesi saattaa olla, että koodi on jo hyvin testattu, eikä sinun tarvitse keksiä pyörää uudelleen.

Okei, joten lainanantaja toisensa jälkeen valitsee syyttömästi käyttää algoritmia Y. On olemassa suuri mahdollisuus, että algoritmi Y tulee tunnetuksi "kultastandardina", jota käytetään luottokelpoisuuden varmistamiseen. Ja tämä tekee kyseisen algoritmin käyttöönotosta entistä suositumpaa. Tekoälykehittäjät eivät vain säästä aikaa käyttämällä sitä, he myös pelaavat asioita turvallisesti. Kaikki muut vannovat, että algoritmi on käyttökelpoinen. Miksi sinun pitäisi taistella joukon viisautta vastaan? Tuntuisi harkitsemattomalta tehdä niin.

Tervetuloa tekoälyalgoritmisen monokulttuurin aikakauteen.

Olemme havainneet tässä tämän esimerkin avulla, että samaa algoritmia voidaan helposti käyttää yhä uudelleen useissa tekoälyjärjestelmissä. Siinä ei ole erityistä salaliittoa. Käsillä ei ole super-duper-mestariteettua pahaa juonia. Näiden pahantahtoisten suunnitelmien sijaan tietystä algoritmista tulee hallitseva johtuen hyvistä ja hyödyllisistä syistä.

Aiempina vuosina on ollut mahdollisuus käyttää laajasti samoja algoritmeja, vaikkakin enemmän esteitä oli ylitettävä. Nykyään algoritmien tallennuskeskittimien käyttö on lähes vaivatonta. Avoin lähdekoodi on hyväksytty paremmin kuin ehkä aikaisemmilla sukupolvilla. Ja niin edelleen.

Kun olemme tutkineet yhden esimerkin lainanantajasta, saatamme päätyä siihen, että kaksi lainanantajaa, kaksikymmentä lainanantajaa, kaksisataa lainanantajaa, kaksituhatta lainanantajaa tai ehkä satojatuhansia lainanantajia, jotka kaikki valitsevat saman algoritmin Y käyttämisen. AI. AI-algoritmi on varma. Sitä valitaan ja juurrutetaan tekoälyyn kaikkialla maailmassa.

Kukaan ei nosta punaisia ​​lippuja. Ei ole ilmeistä syytä tehdä niin. Jos jotain, punainen lippu saatetaan nostaa, kun joku lainanantaja päättää olla käyttämättä algoritmia Y. Hei, kysymys voidaan kehottaa, et käytä algoritmia Y. Mitä antaa? Yritätkö tarkoituksella tehdä jotain epäselvää tai likaista? Ota toimesi yhteen ja tule mukaan kaikkien muiden kanssa.

Ekstrapoloi tämä sama käsitteellinen monokulttuuri kaikenlaisiin tekoälyjärjestelmiin ja kaikenlaisiin algoritmeihin.

Eräässä tutkimuksessa ilmiöitä kuvattiin näin: "Yhteiskunnallisten valintojen muokkaamiseen käytettyjen algoritmien nousuun on liittynyt huoli monokulttuurista – käsitys siitä, että valinnat ja mieltymykset muuttuvat homogeenisiksi algoritmisen kuraation edessä" (Jon Kleinberga ja Manish Raghavana, "Algoritminen monokulttuuri ja sosiaalinen hyvinvointi" PNAS 2021). He huomauttavat edelleen: "Vaikka algoritmit olisivat tapauskohtaisesti tarkempia, maailma, jossa kaikki käyttävät samaa algoritmia, on altis korreloituville epäonnistumisille, kun algoritmi joutuu epäsuotuisiin olosuhteisiin."

Voimme nyt hyödyllisellä tavalla tarkastella aiempaa seitsemän sääntöä tekoälyalgoritmista monokulttuurista:

1) Tekoälyalgoritminen monokulttuuri koostuu samojen tai lähes samojen taustalla olevien algoritmien käyttämisestä, joita sitten käytetään laajasti ihmisiin vaikuttavien päätösten tekemiseen.

2) Tällainen tekoäly voi tarjota johdonmukaisuutta ja luotettavuutta, vaikka tämä onkin kaksiteräinen miekka

3) Toinen puoli on se, että haitallisia harhoja välittävä tekoäly leviää helposti ja sitä käytetään yhä uudelleen ja uudelleen epäsuotuisilla tavoilla (se on huonoa)

4) Toinen puoli on, että oikeudenmukaisuutta ja muita oikeutetusti toivottavia ominaisuuksia ilmentävää tekoälyä voitaisiin onneksi levittää laajalle (se on hyvä)

5) Tämän kaliiperin homogeenisessä tekoälyssä on tietynlainen järjestelmän laajuinen haavoittuvuus, ja häiritsevät shokit voivat heikentää sen

6) Tekoälyn heterogeenisyyttä voitaisiin joskus suosia, vaikka tämä herättää huolta mahdollisista valtavista ristiriitaisuuksista

7) Meidän kaikkien on pohdittava tekoälyalgoritmista monokulttuuria, katsottava sitä ja taisteltava sen kanssa

Kuten säännössäni nro 2 totesin, tekoälyalgoritmisella monokulttuurilla on selvästi kaksiteräinen miekka.

Sääntöni nro 3 mukaan saatat päätyä kepin lyhyeen päähän. Jos lainanantaja hylkää sinut lainanantajan toisensa jälkeen, minne menetkin, ja jos algoritmi Y tekee tämän puolueellisella tai muulla sopimattomalla perusteella, olet valitettavasti kirottu. Sinun on paljon vaikeampi yrittää saada tämä kumottua. Tietokannassa sinua koskevien tietojen tapauksessa sinulla on todennäköisyys, että sinulla on oikeussuojakeino ja myös yleinen tunnustus siitä, mitä huonot tiedot voivat tehdä. Harvat ihmiset ymmärtäisivät, että huono algoritmi seuraa sinua maan ääriin.

Sääntöni nro 4 mukaan tekoälyalgoritmisella monokulttuurilla on potentiaalinen kääntöpuoli. Oletetaan, että algoritmi Y oikeutetusti estää sinua saamasta lainaa. Olet ehkä yrittänyt huijata ja vahingollisesti huijata asioita tekemällä ostoksia. Koska samaa algoritmia Y käytetään laajalti, ostoksesi ei todennäköisesti ole kultaa. Vaikka emme ehkä pidä ajatuksesta jatkuvasta ja yleisestä algoritmin oikeudenmukaisuuden mahdollisuudesta (jos sellainen on olemassa, katso analyysini osoitteessa linkki tähän), voimme ehkä iloita, kun hyvä asia leviää laajalle.

Keskustellaan seuraavaksi järkytyksistä.

Säännössäni nro 5 ilmaisen, että taustalla on epäilys siitä, että tekoälyalgoritminen monokulttuuri voi joutua massiivisten häiriöiden kohteeksi. Tämä on helppo selittää. Kuvittele, että algoritmissa Y on ohjelmistovirhe. Kukaan ei huomannut sitä. Se on ollut siellä piilossa ikuisuuden ajan. Jos epäilet, että näin voisi koskaan tapahtua, eli että bugi olisi avoimessa lähdekoodissa, mutta sitä ei ole vielä löydetty aiemmin, katso kattavuus osoitteessa linkki tähän tällaisista tapauksista.

Virhe tulee pintaan ja aiheuttaa sen, että algoritmi Y ei enää ole se ylistetty koodinpala, jonka kaikki luulivat sen olevan. Ymmärrä, että tämä vika on tuhansissa ja tuhansissa tekoälyjärjestelmissä. Lyhyesti sanottuna vika voidaan kohdata kaikkialla planeetalla, ja kohtaamme nopeasti kauhistuttavan sotkun. Koska kaikki laittavat munansa yhteen koriin ja koska kori on nyt täysin sekaisin, sama tapahtuu maailmanlaajuisesti.

Eeppisten mittasuhteiden katastrofi.

Teoriassa tämä ei olisi helposti tapahtunut, jos lainanantajat olisivat kukin kehittäneet omia algoritmejaan. On mahdollista, että jos toisessa heistä olisi vika, muilla ei. Jos kaikki käyttävät samaa peruskoodia, niillä kaikilla on sama vika.

Piru jos et, helvetti jos et.

Olen varma, että jotkut teistä huutavat, että hyvä uutinen bugista monokulttuuriympäristössä on se, että jos korjaus on saatavilla, jokainen voi yksinkertaisesti asentaa saman korjauksen. Tämä näyttäisi olevan valoisa ja aurinkoinen tapa tarkastella asiaa. Kyllä, se saattaa toimia. Asian ydin on kuitenkin se, että yleisen häiriön mahdollisuus on lisääntynyt. Vaikka resoluutio olisikin helpompi selviytyä, joudut silti kohtaamaan monokulttuurien aiheuttamien häiriöiden massiivisuuden.

Sen lisäksi, että virhe voi aiheuttaa shokin, voimme keksiä monia muita ahdistavia skenaarioita. Yksi olisi kyberrikollinen, joka suunnittelee pahan tavan anastaa yleisesti käytetyn algoritmin. Pahantekijällä saattoi olla bonanza käsissään. He voivat siirtyä tekoälystä tekoälyyn ja saada tekoäly tekemään jotain ällöttävää. Kaikki siksi, että samaa algoritmia käytettiin yhä uudelleen ja uudelleen. Massiivista mittakaavaa voidaan hyödyntää hyvyyteen ja valitettavasti sitä voidaan mahdollisesti hyödyntää pahuuteen.

Tämän painavan keskustelun tässä vaiheessa lyön vetoa, että kaipaat havainnollistavia esimerkkejä, jotka voisivat esitellä tätä aihetta. On olemassa erityinen ja varmasti suosittu joukko esimerkkejä, jotka ovat lähellä sydäntäni. Tekoälyn asiantuntijana, mukaan lukien eettiset ja oikeudelliset seuraukset, minua pyydetään usein tunnistamaan realistisia esimerkkejä, jotka tuovat esille tekoälyn eettisiä ongelmia, jotta aiheen jossain määrin teoreettinen luonne voidaan ymmärtää helpommin. Yksi mieleenpainuvimmista alueista, joka esittelee elävästi tämän eettisen tekoälyongelman, on tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo. Tämä toimii kätevänä käyttötapana tai esimerkkinä aiheesta laajalle keskustelulle.

Tässä on sitten huomionarvoinen kysymys, jota kannattaa pohtia: Valoittaako tekoälyyn perustuvien todellisten itseohjautuvien autojen tulo mitään tekoälyalgoritmisesta monokulttuurista, ja jos on, mitä tämä esittelee?

Anna minun hetki purkaa kysymys.

Ensinnäkin, huomaa, että todellisessa itseajavassa autossa ei ole ihmiskuljettajaa. Muista, että todellisia itseohjautuvia autoja ajetaan tekoälyjärjestelmän kautta. Rattiin ei tarvita ihmiskuljettajaa, eikä myöskään ole mahdollista, että ihminen voisi ajaa ajoneuvoa. Katso kattava ja jatkuva kattamukseni autonomisista ajoneuvoista (AV) ja erityisesti itseohjautuvista autoista. linkki tähän.

Haluaisin selventää tarkemmin, mitä tarkoitetaan, kun viittaan todellisiin itse ajaviin autoihin.

Ymmärtäminen itse ajavien autojen tasoista

Selvyyden vuoksi todelliset itse ajavat autot ovat sellaisia, joissa tekoäly ajaa autoa kokonaan yksin eikä ajo-tehtävän aikana ole mitään apua.

Näitä kuljettamattomia ajoneuvoja pidetään tasoina 4 ja 5 (katso selitykseni osoitteessa tämä linkki täällä), kun taas autoa, joka edellyttää ihmiskuljettajan yhteistä ajoponnistusta, pidetään yleensä tasolla 2 tai 3. Autoja, jotka jakavat ajotehtävän, kuvataan puoliautonomisina ja sisältävät tyypillisesti erilaisia automaattiset lisäosat, joista käytetään nimitystä ADAS (Advanced Driver-Assistance Systems).

Tasolla 5 ei ole vielä todellista itseajavaa autoa, emmekä vielä edes tiedä, onko se mahdollista saavuttaa tai kuinka kauan sen saavuttaminen kestää.

Samaan aikaan tason 4 ponnistelut yrittävät vähitellen saada jonkin verran pitoa käymällä läpi erittäin kapeita ja valikoivia yleisiä tiekokeita, vaikka onkin kiistaa siitä, pitäisikö tämä testaus sallia sellaisenaan (olemme kaikki elämän tai kuoleman marsuja kokeessa tapahtuu valtateillämme ja sivuteillämme, jotkut väittävät, katso kattaukseni osoitteessa tämä linkki täällä).

Koska osittain itsenäiset autot vaativat ihmisen kuljettajan, tämäntyyppisten autojen omaksuminen ei ole selvästi erilainen kuin tavanomaisten ajoneuvojen ajaminen, joten sinänsä ei ole paljon uutta kattamaan niitä tästä aiheesta (tosin kuten näette hetkessä seuraavia pisteitä voidaan yleensä soveltaa).

Osittain itsenäisten autojen osalta on tärkeää, että kansalaisia ​​on varoitettava viime aikoina esiintyneestä häiritsevästä näkökulmasta, nimittäin siitä, että huolimatta ihmisten kuljettajista, jotka jatkavat videoiden lähettämistä itsensä nukahtamisesta tason 2 tai 3 autolle, , meidän kaikkien on vältettävä johtamasta harhaan uskoaan, että kuljettaja voi viedä huomionsa ajo-tehtävään ajon puoli-autonomisen auton kanssa.

Olet vastuussa ajoneuvon ajotoimista riippumatta siitä, kuinka paljon automaatiota voidaan heittää tasolle 2 tai 3.

Itseajavat autot ja tekoälyn algoritminen monokulttuuri

Tason 4 ja tason 5 itseohjautuvissa ajoneuvoissa ajo-tehtävään ei tule inhimillistä kuljettajaa.

Kaikki matkustajat ovat matkustajia.

AI ajaa.

Yksi näkökohta, josta on keskusteltava välittömästi, merkitsee sitä, että nykypäivän tekoälyjärjestelmiin osallistuva tekoäly ei ole tunteva. Toisin sanoen tekoäly on kokonaisuudessaan tietokonepohjaisen ohjelmoinnin ja algoritmien joukko, eikä varmaankaan kykene perustelemaan samalla tavalla kuin ihmiset.

Miksi tämä korostetaan sitä, että tekoäly ei ole järkevä?

Koska haluan korostaa, että puhuessani tekoälyn ajo-järjestelmän roolista, en omista tekoälylle ihmisen ominaisuuksia. Huomaa, että nykyään on jatkuva ja vaarallinen taipumus antropomorfisoida tekoäly. Pohjimmiltaan ihmiset osoittavat ihmisen kaltaisen tuntemuksen nykyiselle tekoälylle huolimatta kiistattomasta ja kiistattomasta tosiasiasta, että sellaista tekoälyä ei vielä ole.

Tämän selvennyksen avulla voit kuvitella, että tekoälyn ajo-järjestelmä ei luonnostaan ​​jotenkin “tiedä” ajon puolia. Ajo ja kaikki siihen liittyvä on ohjelmoitava osaksi itseajoavan auton laitteistoa ja ohjelmistoa.

Sukelletaan lukemattomiin näkökohtiin, jotka tulevat pelaamaan tästä aiheesta.

Ensinnäkin on tärkeää ymmärtää, että kaikki AI-itse ajavat autot eivät ole samanlaisia. Jokainen autonvalmistaja ja itseajava teknologiayritys suunnittelee itse ajavia autoja. Sellaisenaan on vaikea antaa laajoja lausuntoja siitä, mitä tekoälyjärjestelmät tekevät tai eivät tee.

Lisäksi aina, kun todetaan, että tekoälyohjausjärjestelmä ei tee jotain tiettyä, tämä voi myöhemmin ohittaa kehittäjät, jotka itse ohjelmoivat tietokoneen tekemään juuri sen. AI -ajojärjestelmiä parannetaan ja laajennetaan asteittain. Nykyinen rajoitus ei välttämättä ole enää olemassa tulevassa iteraatiossa tai järjestelmän versiossa.

Toivon, että se tarjoaa riittävän litaania varoituksia taustalla, mitä aion kertoa.

Aloitamme toteamalla joitain tärkeitä perusteita. Tekoälyjärjestelmiä suunnitellaan yrittämään käyttää itseohjautuvia autoja turvallisesti. Jotkut autonvalmistajat ja itseohjautuvat teknologiayritykset tekevät koodauksensa omilla tavoilla. Toiset luottavat avoimeen lähdekoodiin.

Kuvittele, että jokin algoritmi Z on saatavilla avoimen lähdekoodin arkistoissa ja kätevä käytettäväksi tekoälyjärjestelmissä. Autonvalmistaja tai itse ajava teknologiayritys sisällyttää algoritmin Z osaksi tekoälyjärjestelmää. Tämä kudotaan kiinteästi heidän tekoälyjärjestelmäänsä.

Jos tielle laitetaan esimerkiksi tusina itseohjautuvaa autoa, kaikki nämä autonomiset ajoneuvot sisältävät algoritmin Z osana tekoälyjärjestelmän ohjelmistoa. Vähitellen, olettaen, että itseajavat autot ajavat turvallisesti, kalusto kasvaa kahdeksikymmeneksi itseajavaksi autoksi teillä. Päätös nousta entisestään. Pian kaksituhatta itse ajavaa autoa tästä laivastosta on nyt kaduilla ja moottoriteillä. Ja niin edelleen.

Toinen autonvalmistaja käyttää myös Z-algoritmia ajojärjestelmässään. He myös ottavat käyttöön itse ajavia autojaan. Heidän laivastonsa on kasvanut. Pian heillä on tuhansia itseohjautuvia autojaan vaeltamassa tänne ja tänne.

Luotan siihen, että näet, mihin tämä on menossa.

Voimme joutua tekoälyalgoritmiseen monokulttuuriin keskellä tekoälypohjaisten itseohjautuvien autojen tuloa. Monilla itseohjautuvien ajoneuvojen merkeillä ja malleilla voi kaikilla olla tietty algoritmi, jota käytetään jossain tekoälyjärjestelmässä. Tästä ei ollut mitään yhteistoimintaa. Ei suuria salaliittoja pelissä.

Siitä, kuinka monta itseajavaa autoa meillä saattaa joskus olla teillämme, käydään kiivasta keskustelua. Tiedämme, että pelkästään Yhdysvalloissa on nykyään noin 250 miljoonaa ihmisen käyttämää autoa. Jotkut ehdottavat, että tarvitsemme siis noin 250 miljoonaa itseohjautuvaa autoa, olettaen, että lopulta luovumme ihmisvetoisista autoista tai että ne luonnollisesti hylätään ja korvataan itseohjautuvilla autoilla.

Ei niin nopeasti, jotkut kehottavat. Ihmisen käyttämät autot viettävät noin 90 % tai enemmän ajastaan ​​käyttämättä. Yleisesti ottaen ihmisen ajamat autot istuvat pysäköitynä ja odottavat ihmiskuljettajaa ajamaan niitä. Tekoälypohjaiset itseajavat autot voivat ajaa koko ajan, melkein. Tekoälyautolla voi luultavasti olla vuorokauden ympäri, paitsi huollon tai muun vaaditun seisokkiajan aikana.

Siinä tapauksessa et näennäisesti tarvitse 250 miljoonaa itseajavaa autoa korvataksesi yksitellen 250 miljoonaa ihmisen ajamaa autoa. Ehkä 200 miljoonaa itseajavaa autoa riittää. Ehkä 100 miljoonaa. Kukaan ei voi sanoa varmaksi. Katso arvioni tästä asiasta linkki tähän.

Haluan tällä hetkellä vain huomauttaa, että meillä voi olla miljoonia ja miljoonia itseohjautuvia autoja, jotka lopulta vaeltelevat moottoriteillämme ja sivuteillämme. Se, kuinka paljon niitä lopulta tarkalleen tulee olemaan teillä, ei ole tämän keskustelun kannalta oleellista. Niitä tulee epäilemättä monia miljoonia. Tämä mitoitus on yleisesti ottaen tärkeä tekoälyalgoritmisen monokulttuurin ja sen Keystone-ominaisuuden vuoksi, että kohdata sekä etuja että haittoja massiivisessa mittakaavassa.

Tässä on kierre.

Hirvittävän kauhean tyhmän tuurin johdosta algoritmissa Z on vakava ongelma, jota kukaan ei aiemmin onnistunut huomaamaan. On olemassa virhe, joka saa muun AI-ajojärjestelmän menemään pieleen.

Huonoja uutisia.

Niille teistä, jotka suunnittelevat tekoälyjärjestelmiä, ymmärrän, ettet yleensä pidä tällaisista pahimmista skenaarioista, ja vaikka mahdollisuudet ovat ehkä pienet, niistä kannattaa kuitenkin keskustella. Emme voi pitää päätämme hiekassa. Parempi olla silmät auki ja pyrkiä ehkäisemään tai ainakin lieventämään tämäntyyppisiä onnettomuuksia.

Teoriassa tämän vian sisältävä itseohjautuva tekoälyauto saattaa yrittää törmätä ja törmätä melkein mihin tahansa ja kaikella, joka on sen käsissä tehdäkseen niin. Tekoäly vain tekee niin kuin se on "suunniteltu" tekemään tässä asetuksessa. Tämä olisi tuhoisaa.

Jotkut teistä saattavat ajatella, että pelkkä tekoälyn itseohjautuva auto kohtaaminen vian ei sinänsä vaikuta suurelta ongelmalta. Sanon tämän, koska kun tekoäly itse ajava auto törmää johonkin, kuten kuorma-autoon tai mihin tahansa, ajoneuvo itse on todennäköisesti niin vaurioitunut, että tekoäly ei voi enää aktiivisesti ohjata sitä suorittamaan kaaosta ja tuhoa. Se on niin sanotusti kuollut vedessä.

No, harkitse asiaan liittyvää skaalaustekijää.

Jos on miljoonia ja miljoonia itseohjautuvia autoja ja ne kaikki luottavat samaan sulautettuun algoritmiin Z, ne saattavat valitettavasti suorittaa saman virheen.

Tiedän ja tunnustan, että tämä virhe voidaan korjata tai voittaa käyttämällä OTA (Over-The-Air) sähköisesti jaettua ohjelmistopäivitystä. Pikaisena taustana monet ovat pohtineet OTA:n käytön eduista. Kun ohjelmistopäivitys tarvitaan, sinun ei tarvitse viedä itseohjautuvaa tekoälyautoa autokorjaamoon tai jälleenmyyjään. OTA voidaan tehdä melkein missä tahansa itseajava auto sattuu olemaan (rajoituksissa).

Sillä välin, kunnes saamme selville vian ja korjauksen ja ennen kuin lähetämme sen OTA:n kautta, itse ajavat autot tiellä ovat edelleen epävarmassa asennossa. Jotkut ovat kohdanneet vian ja menneet pieleen. Muut ovat sen partaalla.

Saatamme haluta vaatia, että kaikki itseajavat autot on pysäytettävä toistaiseksi paikoilleen eikä niitä saa käyttää enää ennen kuin OTA-korjaus on säteilty AI-ajojärjestelmiin. Kuvittele häiriö. Oletetaan, että meillä on hyvin vähän ihmisten ajamia autoja jäljellä. On myös todennäköistä, että itseohjautuvia autoja ei varusteta ihmisajon ohjaimilla. Pohjimmiltaan saatat saada 200 miljoonan (tai minkä tahansa määrän) itseohjautuvan auton maadoittamisen, kun saamme vian korjattua.

Jos yhteiskunta on tullut riippuvaiseksi itseohjautuvista autoista, olet jokseenkin sulkenut yhteiskunnan liikkuvuuden näkökulmasta, ainakin siihen asti, kunnes virheenkorjaus on poistettu.

Nyt se olisi vahingollinen ja järkyttävä shokki järjestelmälle.

Epäilen, että ajatus piilevästä bugista, joka tekee järjetöntä toimintaa, tuntuisi lähes mahdottomalta kuvitella, vaikka emme kuitenkaan voi sulkea pois mahdollisuutta kokonaisuudessaan. On olemassa muitakin mahdollisuuksia, kuten kyberrikollisia haavoittuvuuksia. Olen keskustellut esimerkiksi siitä, kuinka roistokansallisvaltio voisi yrittää tehdä hirvittävän teon hyödyntämällä tekoälyn ajojärjestelmän heikkoutta, katso keskusteluni osoitteessa linkki tähän. Lisäksi lisätietoja siitä, kuinka tekoälyn itseohjautuvat autot voidaan suorittaa haitallisesti, on artikkelissani osoitteessa linkki tähän.

Yhteenveto

Samanmielisyys on sekä siunaus että kirous.

Panimme aiemmin merkille, että Gandhi sanoi, että samanmieliset voivat saavuttaa suuria asioita. "Samanmielinen" tekoäly voi mahdollisesti saavuttaa suuria asioita. Platon varoitti meitä siitä, että suljettu mieli voi olla vakava vaara. Jos ympärillämme on samanhenkisiä järjestelmiä, kohtaamme mahdollisesti tahattomien (tai tahallisten) kumoavien elementtien piileviä vaaroja, jotka voivat vahingoittaa joitain meistä tai ehkä kaikkia meitä.

Meidän on oltava avoimia tekoälyalgoritmisen monokulttuurin suhteen. Jos teemme asiat oikein, voimme ehkä valjastaa hyvyyden ja välttää pahuuden.

Mutta vain jos olemme oikeassa mielessämme kaikesta.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/06/19/ai-ethics-confronting-the-insidious-one-like-mind-of-ai-algorithmic-monoculture-iclude-for- autonomiset-itse ajavat-autot/