Tekoälyn etiikka ja tekoälylaki punnittavat keskeisiä tapoja toteuttaa äskettäin julkaistu tekoälyn oikeudet, mukaan lukien ja hämmästyttävän käyttämällä tekoälyä suoraan

Ei ole epäilystäkään siitä, että tarvitsemme piirustuksia jokapäiväisessä elämässämme.

Jos aiot rakentaa pitkään visioidun unelmiesi talon, sinun on viisasta koota ensin käyttökelpoinen suunnitelma.

Suunnitelma esittelee konkreettisella ja dokumentoidulla tavalla mitä tahansa laajasilmäistä visionääristä näkökulmaa, joka saattaa olla lukittuna noggiiniisi. Ne, joita kutsutaan rakentamaan rakastettu kotitilasi, voivat viitata suunnitelmaan ja naulata yksityiskohtia työn suorittamisesta. Piirustukset ovat käteviä. Suunnitelman puuttuminen on varmasti ongelmallista kaikenlaisten monimutkaisten askareiden tai projektien käsittelyssä.

Siirretään tämä hieman sentimentaalinen mutta aito kunnianosoitus suunnitelmille tekoälyn (AI) valtakuntaan.

Ne teistä, jotka ovat sisällöltään osaksi tekoälyä, saattavat olla hämärästi tietoisia, että tärkeä politiikka on suuntautunut suunnitelma julkaistiin äskettäin Yhdysvalloissa, mikä liittyy todistetusti tekoälyn tulevaisuuteen. Tunnetaan epävirallisesti nimellä AI Bill of Rights, julistetun valkoisen kirjan virallinen nimi on "Tekoälyn Bill of Rights: Making Automated Systems Work for the American People" ja se on helposti saatavilla verkossa.

Asiakirja on tiede- ja teknologiapolitiikan viraston (OSTP) vuoden kestäneen ponnistelun ja tietoisen tutkimuksen tulos. OSTP on liittovaltion yksikkö, joka perustettiin 1970-luvun puolivälissä ja jonka tehtävänä on neuvoa Yhdysvaltain presidenttiä ja Yhdysvaltain toimeenpanovirastoa erilaisissa kansallisesti tärkeissä teknologisissa, tieteellisissä ja teknisissä näkökohdissa. Tässä mielessä voit sanoa, että tämä AI Bill of Rights on Yhdysvaltain nykyisen Valkoisen talon hyväksymä ja hyväksymä asiakirja.

AI Bill of Rights kuvaa ihmisoikeudet mitä ihmiskunnalla pitäisi olla tekoälyn tulon suhteen jokapäiväiseen elämäämme. Korostan tätä painavaa seikkaa, koska jotkut ihmiset olivat aluksi ymmällään siitä, että ehkä tämä oli jonkinlainen tunnustus tekoälyn oikeushenkilöllisyydestä ja että tämä oli tiedostava tekoäly ja humanoidirobottien oikeuksien litania. Ei, emme ole vielä siellä. Kuten näette hetken kuluttua, emme ole lähelläkään tuntevaa tekoälyä, vaikka banneriotsikot näyttävät kertovan meille muuta.

Okei, tarvitsemmeko siis suunnitelman, jossa selvitetään ihmisoikeudet tekoälyn aikakaudella?

Kyllä, me varmasti teemme.

Sinun pitäisi melkein olla lukittu luolaan ja olla poissa Internet-yhteydestä, jotta et tietäisi, että tekoäly loukkaa jo ja yhä enemmän oikeuksiamme. Tekoälyn viimeaikaista aikakautta pidettiin alun perin sellaisena AI Hyvä, mikä tarkoittaa, että voimme käyttää tekoälyä ihmiskunnan parantamiseen. Kannoilla AI Hyvä tuli ymmärrys, että olemme myös uppoutuneita AI huono. Tämä sisältää tekoälyn, joka on suunniteltu tai itse muutettu syrjiväksi ja joka tekee laskennallisia valintoja, jotka aiheuttavat kohtuutonta harhaa. Joskus tekoäly on rakennettu tällä tavalla, kun taas toisissa tapauksissa se poikkeaa tuolle epäsuotuisalle alueelle.

Jatkuva ja laaja kattavuus ja analyysi tekoälyn laista, tekoälyn etiikkaa ja muita keskeisiä tekoälyteknologisia ja yhteiskunnallisia suuntauksia varten, katso linkki tähän ja linkki tähän, vain muutamia mainitakseni.

AI Bill Of Rights -paketin purkaminen

Olen aiemmin keskustellut AI Bill of Rightsista ja teen lyhyen yhteenvedon tässä.

Jos haluat tietää perusteelliset hyvät ja huonot puoleni äskettäin julkaistusta AI Bill of Rights -asiakirjasta, olen esittänyt analyysini yksityiskohtaisesti osoitteessa JuristiKatso linkki tähän. Juristi on merkittävä oikeudellisia uutisia ja kommentteja käsittelevä online-sivusto, joka tunnetaan laajalti palkitun oikeudellisena uutispalveluna. Palvelun tarjoaa maailmanlaajuinen lakiopiskelijoiden toimittajia, toimittajia, kommentaattoreita, kirjeenvaihtajia ja sisällönkehittäjiä. Sen pääkonttori sijaitsee Pittsburghin yliopiston koulussa. Laki Pittsburghissa, josta se alkoi yli 25 vuotta sitten. Huippu loistavalle ja ahkeralle tiimille klo Juristi.

AI Bill of Rightsissa on viisi Keystone-luokkaa:

  • Turvalliset ja tehokkaat järjestelmät
  • Algoritminen syrjinnän suoja
  • Tietosuoja
  • Huomio ja selitys
  • Inhimilliset vaihtoehdot, harkinta ja varavaihtoehto

Huomaa, että en numeroinut niitä yhdestä viiteen, koska se voi tarkoittaa, että ne ovat tietyssä järjestyksessä tai että yksi oikeuksista on näennäisesti tärkeämpi kuin toinen. Oletamme, että ne ovat kukin omat ansiot. He kaikki ovat tietyssä mielessä yhtä ansioituneita.

Lyhyesti osoituksena siitä, mistä kukin niistä koostuu, tässä on ote virallisesta valkoisesta kirjasta:

  • Turvalliset ja tehokkaat järjestelmät: "Sinua tulee suojata vaarallisilta tai tehottomilta järjestelmiltä. Automaattisia järjestelmiä tulisi kehittää kuulemalla eri yhteisöjä, sidosryhmiä ja alan asiantuntijoita järjestelmän huolenaiheiden, riskien ja mahdollisten vaikutusten tunnistamiseksi.
  • Algoritminen syrjinnän suojaus: "Algoritmien aiheuttamaa syrjintää ei pidä kohdata, ja järjestelmiä tulee käyttää ja suunnitella tasapuolisesti. Algoritminen syrjintä tapahtuu, kun automatisoidut järjestelmät edistävät perusteettomasti erilaista kohtelua tai vaikuttavat epäsuotuisasti ihmisiin heidän rodun, ihonvärin, etnisen taustan, sukupuolen (mukaan lukien raskaus, synnytys ja niihin liittyvät sairaudet, sukupuoli-identiteetti, intersukupuolinen asema ja seksuaalinen suuntautuminen), uskonnon tai iän perusteella. , kansallinen alkuperä, vamma, veteraanistatus, geneettinen tieto tai mikä tahansa muu lailla suojattu luokitus."
  • Tietosuoja: "Sinua tulee suojata väärinkäytöksiltä sisäänrakennetuilla suojauksilla, ja sinulla pitäisi olla valtuudet päättää, miten sinua koskevia tietoja käytetään. Sinua tulee suojata yksityisyyden loukkauksilta suunnitteluvalinnoilla, jotka varmistavat, että tällaiset suojat sisältyvät oletusarvoisesti, mukaan lukien varmistamalla, että tiedonkeruu vastaa kohtuullisia odotuksia ja että kerätään vain tiettyyn kontekstiin ehdottoman välttämättömiä tietoja."
  • Huomautus ja selitys: "Sinun pitäisi tietää, että käytössä on automatisoitu järjestelmä, ja ymmärtää, miten ja miksi se vaikuttaa sinuun vaikuttaviin tuloksiin. Automaattisten järjestelmien suunnittelijoiden, kehittäjien ja käyttöönottajien tulee tarjota yleisesti saatavilla olevaa selkokielistä dokumentaatiota, mukaan lukien selkeät kuvaukset järjestelmän yleisestä toiminnasta ja automaation roolista, huomautus, että tällaiset järjestelmät ovat käytössä, järjestelmästä vastaava henkilö tai organisaatio ja selitykset tulokset ovat selkeitä, oikea-aikaisia ​​ja helposti saatavilla."
  • Ihmisen vaihtoehdot, harkinta ja varavaihtoehto: "Sinun pitäisi voida tarvittaessa kieltäytyä käytöstä ja saada yhteys henkilöön, joka voi nopeasti harkita ja korjata kohtaamasi ongelmat. Sinun pitäisi pystyä tarvittaessa luopumaan automaattisista järjestelmistä ja käyttämään ihmisen vaihtoehtoa."

Yleisesti ottaen nämä ovat puolia ihmiskunnan oikeuksista, joita on kiistelty jo jonkin aikaa tekoälyn etiikan ja tekoälylain yhteydessä. Katso artikkelini, kuten osoitteessa linkki tähän. Valkoinen kirja ei näytä taianomaisesti nosta kania hatusta koskien jotain äskettäin löydettyä tai paljastettua oikeutta, jota ei ole tähän mennessä selvitetty tekoälyn aikakauden kontekstissa.

Ei se mitään.

Voit väittää, että niiden kokoaminen yhdeksi siististi pakatuksi ja viralliseksi kokoelmaksi on tärkeä palvelu. Lisäksi voidellaan ylistetyksi AI Bill of Rights, tämä tuo koko asian edelleen avoimesti ja taitavasti julkisen sfäärin tietoisuuteen. Se yhdistää olemassa olevan joukon erilaisia ​​keskusteluja yksittäiseksi kokonaisuudeksi, joka voidaan nyt trumpetoida ja välittää kaikenlaisille sidosryhmille.

Sallikaa minun tarjota tämä luettelo myönteisistä reaktioista ilmoitettuun AI Bill of Rightsiin:

  • Tarjoaa olennaisen kokoelman Keystone-periaatteista
  • Toimii suunnitelmana tai perustana, jolle rakentaa
  • Toimii äänekkäänä kehotuksena toimintaan
  • Herättää kiinnostusta ja osoittaa, että nämä ovat vakavia näkökohtia
  • Kokoaa yhteen monia erilaisia ​​keskusteluja
  • Kiinnittää ja edistää eettisen tekoälyn käyttöönottoa
  • Epäilemättä syötetään tekoälylakien laatimiseen
  • Muut

Meidän on myös otettava huomioon vähemmän kuin suotuisat reaktiot ottaen huomioon, että tehtävää on paljon enemmän ja että tämä on vasta alku pitkälle matkalle tekoälyn hallitsemisen vaivalloisella tiellä.

Sellaisenaan AI Bill of Rightsista esitettyä jonkin verran ankaraa tai sanotaanko rakentavaa kritiikkiä ovat:

  • Ei oikeudellisesti täytäntöönpanokelpoinen eikä täysin sitova
  • Vain neuvoa-antava, eikä sitä oteta hallituksen politiikkaan
  • Vähemmän kattava verrattuna muihin julkaistuihin teoksiin
  • Se koostuu pääasiassa laajoista käsitteistä ja siitä puuttuu toteutusyksityiskohtia
  • Tulee olemaan haastavaa muuttua todellisiksi toteuttamiskelpoisiksi käytännön laeiksi
  • Näennäisesti hiljaa uhkaavasta kysymyksestä tekoälyn mahdollisesta kieltämisestä joissakin yhteyksissä
  • Tunnustaa marginaalisesti hyvin suunnitellun tekoälyn käytön edut
  • Muut

Ehkä näkyvin terävä kommentti on keskittynyt siihen tosiasiaan, että tämä tekoälyn Bill of Rights ei ole laillisesti täytäntöönpanokelpoinen, eikä sillä siten ole vettä, kun on kyse selkeän rajatuista maalitolpista. Jotkut ovat sanoneet, että vaikka valkoinen paperi on hyödyllinen ja rohkaiseva, siitä puuttuu selvästi hampaat. He kyseenalaistavat, mitä voi tulla onttohampaiseksi sanotusta hienojen ohjeiden sarjasta.

Vastaan ​​hetken päästä niihin pureviin huomautuksiin.

Samaan aikaan valkoisessa kirjassa kerrotaan runsaasti rajoituksia, joita tämä AI Bill of Rights sisältää:

  • "Tekoälyn Bill of Rights -suunnitelma ei ole sitova eikä muodosta Yhdysvaltain hallituksen politiikkaa. Se ei korvaa, muuta tai ohjaa minkään olemassa olevan säädöksen, määräyksen, politiikan tai kansainvälisen asiakirjan tulkintaa. Se ei ole sitova ohje yleisölle tai liittovaltion virastoille, eikä se siksi edellytä tässä kuvattujen periaatteiden noudattamista. Se ei myöskään ole ratkaisevaa sen suhteen, mikä on Yhdysvaltain hallituksen asema missään kansainvälisissä neuvotteluissa. Näiden periaatteiden hyväksyminen ei välttämättä täytä olemassa olevien lakien, määräysten, käytäntöjen tai kansainvälisten asiakirjojen vaatimuksia tai niitä noudattavien liittovaltion virastojen vaatimuksia. Näitä periaatteita ei ole tarkoitettu eivätkä ne kiellä tai rajoita valtion viraston laillista toimintaa, mukaan lukien lainvalvonta-, kansallinen turvallisuus- tai tiedustelutoiminta” (valkoisen kirjan mukaan).

Niille, jotka ovat nopeasti aliarvioineet tekoälyn Bill of Rights'n laillisesti ei-sitovana, tehdään pieni ajatuskokeilu tuolle kirvelevälle väitteelle. Oletetaan, että valkoinen kirja julkaistiin ja sillä olisi lain täysi voima. Uskallan väittää, että tulos olisi jokseenkin katastrofaalinen, ainakin julistuksen oikeudellisten ja yhteiskunnallisten vastausten osalta.

Lainsäätäjät olisivat käsissä, etteivät ponnistelut olisi toteuttaneet normatiivisia prosesseja ja oikeudellisia menettelyjä tällaisten lakien laatimisessa. Yritykset olisivat oikeutetusti raivoissaan, jos uusia lakeja syntyisi ilman riittävää ilmoitusta ja tietoisuutta siitä, mitä nämä lait ovat. Siitä seuraisi kaikenlaista järkytystä ja raivoa.

Ei hyvä tapa pyrkiä vahvistamaan ihmiskunnan oikeuksia tekoälyn aikakaudella.

Muista, että olin aiemmin aloittanut tämän keskustelun ottamalla esille piirustusten arvon ja elinvoimaisuuden.

Kuvittele, että joku ohitti piirustusten tekemisen ja hyppäsi välittömästi rakentamaan unelmiesi taloa. Miltä luulet talon näyttävän? Vaikuttaa reilulta vedolta, että talo ei juurikaan vastaisi sitä, mitä ajattelit. Tuloksena oleva kotitila voi olla täydellinen sotku.

Pääasia on, että tarvitsemme suunnitelmia, ja meillä on nyt sellainen, jotta voimme edetä harkittujen tekoälylakien selvittämisessä ja eettisen tekoälyn käyttöönotossa.

Haluaisin siksi käsitellä tapoja, joilla tämä AI Bill of Rights -suunnitelma voidaan muuttaa ikään kuin taloksi. Miten aiomme hyödyntää suunnitelmaa? Mitkä ovat sopivat seuraavat vaiheet? Voiko tämä suunnitelma riittää vai tarvitseeko se lisää lihaa luihin?

Ennen kuin siirrymme näihin painaviin asioihin, haluaisin ensin varmistaa, että olemme kaikki samalla sivulla tekoälyn luonteesta ja siitä, mistä tämän päivän tila koostuu.

Tämän päivän tekoälyn ennätys

Haluaisin tehdä erittäin painokkaan lausunnon.

Oletko valmis?

Nykyään ei ole aistivaa tekoälyä.

Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi ennustaa osuvasti, saavutammeko tuntevan tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulariteetiksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluaisimme villisti spekuloida tuntevasta tekoälystä, tämä keskustelu voisi mennä radikaalisti toiseen suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (erittäin älykkään tekoälyn mahdollisuuksien tutkimista varten, ks. kattavuus täällä).

Suosittelen vahvasti, että pidämme asiat maanläheisinä ja harkitsemme nykypäivän laskennallista ei-aistia tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

Ole erittäin varovainen tämän päivän tekoälyn antropomorfoinnissa.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Lisäksi tekoälyn kehittäjät eivät ehkä ymmärrä, mitä on tekeillä. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä se saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhoja.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Kaikella tällä on huomattavan merkittäviä tekoälyn eettisiä vaikutuksia, ja se tarjoaa kätevän ikkunan opittuihin opetuksiin (jopa ennen kuin kaikki oppitunnit tapahtuvat), kun on yritettävä säätää tekoälyä.

Tekoälyn eettisten ohjeiden yleisen soveltamisen lisäksi on vastaava kysymys, pitäisikö meillä olla lakeja säätelemään tekoälyn eri käyttötapoja. Liittovaltion, osavaltion ja paikallisen tason uudet lait koskevat tekoälyn suunnittelun laajuutta ja luonnetta. Pyrkimys tällaisten lakien laatimiseen ja säätämiseen on asteittaista. Tekoälyn etiikka toimii ainakin harkittuna pysähdyspaikkana, ja se sisällytetään lähes varmasti jossain määrin suoraan näihin uusiin lakeihin.

Huomaa, että jotkut väittävät jyrkästi, ettemme tarvitse uusia tekoälyä koskevia lakeja ja että nykyiset lakimme ovat riittäviä. He varoittavat, että jos säädämme osan näistä tekoälylaeista, tapamme kultaisen hanhen hillitsemällä tekoälyn edistysaskeleita, jotka tarjoavat valtavia yhteiskunnallisia etuja.

Aiemmissa kolumneissa olen käsitellyt erilaisia ​​kansallisia ja kansainvälisiä pyrkimyksiä laatia ja säätää tekoälyä sääteleviä lakeja, ks. linkki tähän, esimerkiksi. Olen myös käsitellyt erilaisia ​​tekoälyn eettisiä periaatteita ja ohjeita, jotka eri valtiot ovat tunnistaneet ja omaksuneet, mukaan lukien esimerkiksi Yhdistyneiden kansakuntien pyrkimykset, kuten Unescon tekoälyn etiikka, jonka lähes 200 maata on hyväksynyt, ks. linkki tähän.

Tässä on hyödyllinen avainlista eettisistä tekoälykriteereistä tai ominaisuuksista koskien tekoälyjärjestelmiä, joita olen aiemmin tutkinut tarkasti:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Tekoälykehittäjien oletetaan vakavasti hyödyntävän näitä tekoälyn eettisiä periaatteita, samoin kuin ne, jotka hallitsevat tekoälyn kehitystyötä, ja jopa ne, jotka viime kädessä ottavat käyttöön ja ylläpitävät tekoälyjärjestelmiä.

Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten tässä on aiemmin korostettu, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, jota varten koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Nyt kun olen luonut hyödyllisen perustan, olemme valmiita sukeltamaan syvemmälle AI Bill of Rights -asiakirjaan.

Neljä olennaista tapaa AI Bill Of Rights -asiakirjan täytäntöönpanoon

Joku ojentaa sinulle suunnitelman ja käskee sinua ryhtymään töihin.

Mitä teet?

Kun kyseessä on AI Bill of Rights -suunnitelma, harkitse näitä neljää olennaista askelta eteenpäin:

  • Käytä syötteenä tekoälyn lakien muotoilussa: Käytä suunnitelmaa apuna tekoälylakien muotoilussa, toivottavasti yhdenmukaisesti liittovaltion, osavaltion ja paikallisella tasolla (ehkä auttamalla myös kansainvälisiä tekoälylakeja).
  • Apua tekoälyn etiikan yleistymiseen: Käytä suunnitelmaa tekoälyn eettisten muotoilujen edistämiseen (jota joskus kutsutaan "pehmeiksi lakeiksi" verrattuna oikeudellisesti sitoviin "koviin lakeihin") inspiroimaan ja ohjaamaan yrityksiä, yksityishenkilöitä, viranomaisia ​​ja muita valitsijaryhmiä kohti parempaa ja johdonmukaisempaa etiikkaa. AI tulokset.
  • Shape AI -kehitystoiminta: Käytä suunnitelmaa kannustaaksesi tekoälykehitysmenetelmien ja -koulutusnäkökohtien luomiseen. Näin yrität saada tekoälykehittäjät ja tekoälyä harjoittavat tai käyttävät ihmiset ymmärtämään paremmin, kuinka tekoäly suunnitellaan haluttujen tekoälyn eettisten ohjeiden mukaisesti ja ennakoiden. lähestyvistä tekoälylakeista.
  • Motivoi tekoälyn tuloa auttamaan tekoälyn hallinnassa: Suunnittele suunnitelman avulla tekoäly, jota käytetään tarkastukseen ja tasapainoon muita tekoälyjä vastaan, jotka saattavat poiketa epäsuotuisalle alueelle. Tämä on yksi niistä makroskooppisista näkökulmista, jossa voimme käyttää juuri sitä, mitä näennäisesti huolestuttavana pidämme, myös (ironisesti, voisi sanoa) auttamaan suojelemaan meitä.

Olen keskustellut jokaisesta edellä mainitusta neljästä vaiheesta kolumniviestien aikana.

Tässä keskustelussa haluan keskittyä neljänteen lueteltuun vaiheeseen, nimittäin siihen, että AI Bill of Rights voi toimia motivaattorina kohti tekoälyn tuloa auttamaan tekoälyn hallinnassa. Tämä on jokseenkin järkyttävä tai yllättävä askel monille, jotka eivät ole vielä päässeet täysin tähän tekoälyä edistävään maailmaan.

Sallikaa minun tarkentaa.

Yksinkertaisen analogian pitäisi tehdä temppu. Olemme kaikki nykyään tottuneet kyberturvallisuusloukkauksiin ja hakkereiden murtautumiseen. Melkein joka päivä kuulemme tietokoneissamme olevasta uusimmasta porsaanreiästä tai joudumme niihin vaikuttamaan, mikä mahdollistaa ilkeiden pahantekijöiden kaapata tietomme tai sijoittaa kannettavillemme ilkeän kiristysohjelman.

Yksi tapa taistella noita halveksittavia yrityksiä vastaan ​​on käyttää erikoisohjelmistoja, jotka yrittävät estää murrot. Sinulla on lähes varmasti virustorjuntaohjelmistopaketti tietokoneellasi kotona tai töissä. Älypuhelimessasi on todennäköisesti jotain vastaavaa, riippumatta siitä, onko se päällä tai ei.

Minun pointtini on, että joskus sinun on taisteltava tulta tulella (katso artikkelini tästä, esim linkki tähän ja linkki tähän).

Tekoälyn tapauksessa, joka laskeutuu kiellettyyn valtakuntaan AI huono, voimme pyrkiä käyttämään AI Hyvä joka kamppailee tuon ilkeän kanssa AI huono. Tämä ei tietenkään ole mikään ihmelääke. Kuten tiedätte, tietokoneihimme murtautuvien pahantekijöiden ja kyberturvallisuuden suojauksessa saavutettujen edistysaskelten välillä on jatkuva kissa ja hiiri -peli. Se on lähes loputon peli.

Voimme käyttää tekoälyä yrittääksemme käsitellä tekoälyä, joka on kulkenut kielletylle tielle. Sen tekeminen auttaa. Se ei ole varsinkaan hopealuoti, koska kohteena oleva haitallinen tekoäly suunnitellaan melkein varmasti tällaisten suojausten välttämiseksi. Tämä on jatkuva kissa ja hiiri AI vastaan ​​tekoäly.

Joka tapauksessa tekoäly, jota käytämme suojellaksemme itseämme, tarjoaa jonkin verran suojaa huonoa tekoälyä vastaan. Siksi meidän on epäilemättä kehitettävä tekoäly, joka voi suojella tai suojata meitä. Ja meidän pitäisi myös pyrkiä kehittämään suojaava tekoäly mukautumaan huonon tekoälyn mukautuessa. Tulee olemaan raju salamannopea kissa-hiiri.

Kaikki eivät pidä tästä tekoälyn roolin laajentamisesta.

Ne, jotka jo pitävät tekoälyä homogeenisena amorfisena ryhmittymänä, saisivat kanhenlihaa ja painajaisia ​​tässä teeskennellyssä tekoäly vastaan ​​tekoäly -gambitissa. Jos yritämme kohdistaa tulta tulta, ehkä me vain sytämme vielä suurempaa tulta. Tekoälystä tulee valtava kokko, jota emme enää hallitse ja valitsemme orjuuttaako ihmiskunnan tai pyyhkiä meidät pois planeetalta. Kun puhutaan tekoälystä eksistentiaalisena riskinä, meidät yleensä johdetaan uskomaan, että kaikki tekoäly kokoontuu yhteen. Katso keskusteluni näistä asioista osoitteessa linkki tähän. Katsos, meille kerrotaan, että jokainen tekoäly tarttuu veljiensä tekoälyyn ja siitä tulee yksi suuri yliherra yhtenäinen perhe.

Tämä on kauhistuttava ja selvästi hämmentävä skenaario tuntevasta tekoälystä saumattomana kaikki yhden ja yksi kaikkien puolesta mafiana.

Vaikka olet vapaasti tervetullut tekemään tällaisia ​​olettamuksia siitä, että tämä saattaa joskus tapahtua, vakuutan sinulle, että tällä hetkellä käytössämme oleva tekoäly koostuu rekkakuorista erillisiä AI-ohjelmia, joilla ei ole erityistä tapaa sopia keskenään.

Tämän sanottuani olen varma, että ne, jotka uskovat kiihkeästi tekoälyn salaliittoteorioihin, väittävät, että olen sanonut tämän tarkoituksella piilottaakseni totuuden. Ahaa! Ehkä tämän päivän tekoäly, joka suunnittelee jo suurta tekoälyä (kyllä ​​siree, kylpeen rikkauksissa, kun tekoälyn yliherrat hallitsevat), maksaa minulle pois tämän päivän tekoäly). Tai, enkä todellakaan kannata tätä toista näkökulmaa, ehkä en ole sokeasti tietoinen siitä, kuinka tekoäly suunnittelee salaa selkämme takana. Luulen, että meidän on odotettava ja katsottava, olenko osa tekoälyvallankaappausta vai synkkää tekoälyä (auts, se sattuu).

Palataksemme maallisiin näkökohtiin, tutkitaanpa lyhyesti, kuinka nykyaikaista tekoälyä voidaan käyttää apuna tekoälyn Bill of Rights -lain täytäntöönpanossa. Viittaan tähän kätevästi ja suppeasti nimellä Hyvä AI.

Käytämme AI Bill of Rights -asiakirjaan sisältyviä viittä Keystonea:

  • Hyvä tekoäly edistämiseen Turvalliset ja tehokkaat järjestelmät: Aina kun olet tekoälyjärjestelmän alainen tai käytät sitä, Good AI yrittää selvittää, onko käytettävä tekoäly vaarallista vai tehotonta. Tällaisen havainnon jälkeen hyvä tekoäly saattaa varoittaa sinua tai ryhtyä muihin toimiin, mukaan lukien huonon tekoälyn estäminen.
  • Hyvä AI tarjoamiseen Algoritminen syrjinnän suojaus: Kun käytät tekoälyjärjestelmää, joka saattaa sisältää syrjiviä algoritmeja, Hyvä AI yrittää selvittää, onko sinulla riittämätön suojaus, ja yrittää selvittää, onko käytetyssä tekoälyssä todellakin kohtuuttomia harhoja. Hyvä tekoäly voisi ilmoittaa sinulle ja mahdollisesti myös automaattisesti raportoida toisesta tekoälystä eri viranomaisille tekoälylakien ja lakisääteisten vaatimusten mukaisesti.
  • Hyvä tekoäly säilytykseen Tietosuoja: Tämän tyyppinen Good AI yrittää suojella sinua tietosuojan loukkauksilta. Kun toinen tekoäly yrittää pyytää sinulta tietoja, joita ei ehkä aidosti tarvita, hyvä tekoäly saa sinut tietoiseksi ylityksestä. Hyvä tekoäly voi myös mahdollisesti peittää tietosi tavalla, joka toiselle tekoälylle syötettynä säilyttää edelleen tietosuojaoikeutesi. Jne.
  • Hyvä tekoäly perustamiseen Huomautus ja selitys: Me kaikki kohtaamme todennäköisesti tekoälyjärjestelmiä, joista puuttuu kovasti asianmukaisten ja asianmukaisten ilmoitusten toimittaminen ja jotka eivät valitettavasti pysty esittämään riittävää selitystä toiminnalleen. Hyvä tekoäly voi yrittää tulkita tai kuulustella toista tekoälyä ja tunnistaa mahdollisesti ilmoitukset ja selitykset, jotka olisi pitänyt antaa. Vaikka tämä ei olisi mahdollista tehdä tietyssä tapauksessa, Good AI ainakin varoittaa sinua toisen tekoälyn puutteista ja mahdollisesti ilmoittaa tekoälystä nimetyille viranomaisille määrättyjen tekoälylakien ja lakisääteisten vaatimusten mukaisesti.
  • Hyvä tekoäly tarjottavaksi Ihmisen vaihtoehdot, harkinta ja varautuminen: Oletetaan, että käytät tekoälyjärjestelmää ja tekoäly ei näytä olevan käsillä olevan tehtävän tasolla. Et ehkä ymmärrä, että asiat menevät happamaan, tai saatat olla hieman varovainen ja epävarma siitä, mitä tehdä tilanteelle. Siinä tapauksessa Good AI tutkisi hiljaa, mitä toinen tekoäly tekee, ja voisi varoittaa sinua kyseiseen tekoälyyn liittyvistä elintärkeistä huolenaiheista. Sen jälkeen sinua kehotetaan pyytämään ihmisen vaihtoehtoa tekoälylle (tai hyvä tekoäly voisi tehdä sen puolestasi).

Ymmärtääksesi tarkemmin, miten tällainen Hyvä AI voidaan kehittää ja levittää, katso suosittu ja arvostettu tekoälykirjani (kunnioitus on sanoa, että se on merkitty kymmenen parhaan joukkoon) siitä, mitä olen yleensä kutsunut tekoälyn suojelusenkeleiksi, ks. linkki tähän.

Yhteenveto

Tiedän mitä ajattelet. Jos meillä on hyvä tekoäly, joka on suunniteltu suojelemaan meitä, oletetaan, että hyvä tekoäly korruptoituu ja muuttuu huonoksi tekoälyksi. Kuuluisa tai pahamaineinen latinalainen tunnuslause näyttää olevan täysin asiaankuuluva tähän mahdollisuuteen: Quis custodiet ipsos custodes?

Ilmaus johtuu roomalaisesta runoilija Juvenalista, ja se löytyy hänen teoksestaan ​​nimeltä Kyllästykset, ja se voidaan kääntää löyhästi siten, että se vartioi tai tarkkailee vartijoita itse. Monet elokuvat ja TV-ohjelmat, kuten Star Trek ovat käyttäneet tätä linjaa toistuvasti.

Tämä varmasti johtuu siitä, että se on erinomainen pointti.

Tosiaankin, kaikkien hyväksyttyjen tekoälylakien on katettava sekä huono tekoäly että jopa huono tekoäly. Siksi on ratkaisevan tärkeää kirjoittaa järkeviä ja kattavia tekoälylakeja. Lainsäätäjät, jotka yrittävät vain heittää satunnaista lakia seinään ja toivovat, että se pysyy tekoälylakien suhteen, huomaavat kaipaavansa kohdetta syvästi.

Emme tarvitse sitä.

Meillä ei ole aikaa emmekä pysty kantamaan yhteiskunnallisia kuluja selviytyä riittämättömästi laadituista tekoälylaeista. Olen huomauttanut, että valitettavasti toisinaan näemme uusia tekoälyyn liittyviä lakeja, jotka ovat huonosti laadittuja ja täynnä kaikenlaisia ​​​​oikeudellisia sairauksia, katso esimerkiksi New York Cityn (NYC) AI Biases -auditointilain tutkiva analyysi osoitteessa linkki tähän.

Varmistetaan, että käytämme oikein nyt käsillä olevaa tekoälyn Bill of Rights -suunnitelmaa. Jos jätämme huomiotta suunnitelman, olemme menettäneet pelimme tehostamisesta. Jos toteutamme suunnitelman väärin, häpeä, että anastimme hyödyllisen perustan.

Arvostettu roomalainen runoilija Juvenal sanoi jotain muuta, jota voimme hyödyntää tässä tilanteessa: Anima sana in corpore sano.

Yleensä tämä tarkoittaa sitä, että olisi järkevää olla sekä terve tai terve mieli että terve tai terve ruumis. Tämä antaa meille mahdollisuuden kestää kaikenlaista vaivannäköä Juvenalin mukaan, ja se on varmasti ainoa tie rauhan tai hyveen elämään.

Meidän on aika käyttää tervettä mieltä ja tervettä ruumista varmistaaksemme, että ihmiskunnan ihmisoikeutemme säilytetään ja vahvistetaan lujasti kaikkialla esiintyvän ja toisinaan epäsuotuisan tekoälyn nousevassa maailmassa. Tämä on roomalaisten hyvä neuvo, jota meidän tulee noudattaa tämän päivän kiireessä keskellä tekoälyn uhkaavaa aikakautta ja tulevaisuutta, joka on täynnä sekä hyvää että huonoa tekoälyä.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- oikeusluettelo-mukaan lukien-ja-hämmästyttävästi-käyttämällä-ai-suorasti/