Tekoälyn etiikka ja tekoälylaki sanoo, että oikeudellisen päättelyn lisääminen tekoälyyn voi saavuttaa älykkäästi inhimillisen arvon mukautumisen

Tämän päivän kolumnissa aion kutoa yhteen lukemattomia näennäisesti toisistaan ​​poikkeavia tekoälyyn liittyviä aiheita yhdeksi kauniisti kudotuksi kankaaksi.

Oletko valmis?

Kuvittele, että käytät tekoälyllä toimivaa sovellusta, joka auttaa sinua suorittaessasi jonkin tärkeän tehtävän. Ehkä asia on taloudellinen tai se voi liittyä terveyteen. Olennaista on, että olet riippuvainen tekoälystä tehdäksesi oikein ja toimiaksesi oletettavasti turvallisesti ja terveellä tavalla.

Oletetaan, että tekoäly siirtyy epäeettiselle alueelle.

Et ehkä ymmärrä, että tekoäly tekee niin.

Tekoäly voi esimerkiksi luottaa mahdollisesti piilossa oleviin syrjiviin tekijöihin, kuten rotuun tai sukupuoleen, vaikka sinulla ei ehkä olekaan toimivaa keinoa havaita epäsopivaa käyttöä. Siinä olet, aivan yksin, saat kepin lyhyen pään tekoälyn kautta, joka on joko kehitetty alkuvaiheessa ongelmallisella tavalla tai joka on onnistunut ohjaamaan arkaluonteiseen ja raja-arvoiseen eettiseen vaaraan (kerron lisää aiheesta tämä hetkessä).

Mitä voit tehdä tai mitä voidaan tehdä tekoälylle, joka päättää mennä epäeettiselle tielle?

Sen lisäksi, että olen yrittänyt rakentaa tekoäly etukäteen niin, ettei se tekisi tällaista salakavalaa toimintaa, olen aiemmin myös kertonut, että kiinnostus upottaa Tekoälyn eettinen tarkastus komponentti muuten villin lännen kukoistavaan suohun, joka heitetään markkinoille. Ajatuksena on, että voisimme käyttää ylimääräistä tekoälyä tarkistamaan ja tasapainottamaan tekoälyn sisältämää sovellusta, jotta se ei pääse eettisten ulottuvuuksien ulkopuolelle. Tämä lisätty tekoäly voi olla kohdistetun tekoälysovelluksen ulkopuolella tai se voi olla suoraan tekoälyyn upotettu tai istutettu komponentti, jonka haluamme tarkistaa.

Kuten olen aiemmin todennut, katso linkki tähän: "Äskettäin noussut trendi koostuu siitä, että tekoälyyn yritetään rakentaa eettisiä suojakaiteita, jotka tarttuvat, kun muu tekoälyjärjestelmän osa alkaa ylittää ennalta asetettuja eettisiä rajoja. Tavoitteena on tietyssä mielessä käyttää tekoälyä itseään estämään itseään menemästä eettisesti pieleen. Voisi sanoa, että pyrimme saamaan tekoälyn parantamaan itsensä" (Lance Eliot, "Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI From Acting Up", Forbes28. maaliskuuta 2022).

Saatat myös kiinnostaa kirjaani AI valvojabotit, jota joskus kutsutaan suojelusenkeliksi, joka kattaa tämän huippuluokan AI-in-in-AI-sulautettujen kaksoistarkistusten tekniset perustat, ks. linkki tähän.

Tärkeintä on, että pekonisi voidaan onneksi pelastaa käyttämällä sulautettua tekoälyä kaksinkertaisen eettisyyden mittauselementin avulla, joka on suunniteltu ja istutettu käyttämääsi tekoälysovellukseen. Mutta riittääkö se vartijaksi varmistamaan, että tekoäly ei jäykistä sinua kokonaan ja uskalla jopa haitalliselle maaperälle?

Näet, AI-sovellus voisi toimia näennäisesti laiton toimii.

On yksi asia, että tekoäly menee eettisenä tai epäeettisenä käyttäytymisen harmaalle alueelle. Yhtä hämmentävä käytös ja todennäköisesti paheneva huolenaihe merkitsevät tekoälyä, joka vain hyppää hain ikään kuin alas ja laskeutuu laittomien tekojen huonoon pimeyteen.

Laiton tekoäly on huono. On huonoa antaa laittoman tekoälyn jäädä ilman valvontaa. Jotkut lakitutkijat ovat avoimesti huolissaan siitä, että tekoälyn tulo ja leviäminen tulee vähitellen ja pelottavalla tavalla heikentämään vaikutelmamme oikeusvaltion, katso analyysini osoitteessa linkki tähän.

Odota hetki, saatat sanoa.

Saatat olla houkutus ajatella, että tekoälykehittäjät tekisivät niin ei ikinä ohjelmoivat tekoälynsä toimimaan lain vastaisesti. Käsittämätöntä. Vain pahat roistot tekisivät niin (jotka muuten muistavat, että on niitä, jotka tarkoituksella suunnittelevat ja käyttävät tekoälyä pahoihin tarkoituksiin, mikä kiinnostaa yhä enemmän rikollisia ja muita, jotka haluavat käyttää tekoälyä pahansuopaisiin toimintoihin).

Anteeksi, mutta on toiveajattelua olettaa, että kaikki ei-paha AI-kehittäjät aikovat tiukasti varmistaa, että heidän tekoälynsä on täysin lainkuuliainen. Voi olla, että tekoäly säätyy itse ja vaeltelee laittomaan toimintaan. Tietenkin on myös mahdollista, että tekoälyn kehittäjät joko halusivat tekoälyn toimivan laittomasti tai että he eivät olleet tietoisia siitä, mikä oli laitonta verrattuna laillisiin toimiin tehdessään tekoälyä (kyllä, tämä on täysin mahdollista, nimittäin että Täysin tekninen tekoälytiimi voi olla tietämätön tekoälynsä oikeudellisista juonitteluista, mikä ei ole anteeksiantamatonta ja kuitenkin tapahtuu hälyttävän usein).

Mitä voidaan tehdä tästä?

Jälleen kerran, sen lisäksi, että yritetään varmistaa, että tekoäly on rautainen ja laillinen, lisäkeinona tehostamaan kuuluu tekoälykomponentin upottaminen tai istuttaminen, joka tekee laillisen kaksoistarkistuksen muun AI-sovelluksen osalta. Tämä lisätty tekoäly, joka istuu hiljaa ja usein ilman ennakkoilmoitusta, tarkkailee muuta tekoälyä yrittääkseen havaita, meneekö tekoäly huijariksi tai ylittääkö tekoäly ainakin lakisääteisten tai säädösten asettamien rajoitusten rajat.

Meillä on nyt kahdenlaisia ​​tekoälyn kaksoistarkistusta, jotka on mahdollisesti upotettu tekoälysovellukseen:

  • Tekoälyn etiikan kaksoistarkistus: Tämä komponentti tai tekoälylisäosa arvioi reaaliajassa muun tekoälyn eettisen ja epäeettisen käytöksen varalta, jota tekoäly osoittaa.
  • AI Legal -tarkistus: Tämä komponentti tai tekoälylisäosa arvioi reaaliajassa muun tekoälyn varmistaakseen, että se pysyy lakisääteisten kulmakivien sisällä ja että tekoäly havaitsee uusia laittomia toimia.

Selvennykseksi totean, että nämä ovat suhteellisen uusia käsityksiä, ja sellaisenaan käyttämäsi tekoäly saattaa olla missä tahansa seuraavista nykyisistä olosuhteissa:

  • AI, jossa ei ole kaksoistarkistusta ollenkaan
  • Tekoäly, jossa on tekoälyn eettinen kaksoistarkistus, mutta ei muita kaksoistarkistuslaitteita
  • Tekoäly, jossa on AI Legal -tarkistus, mutta ei muita kaksoistarkistuksia
  • Tekoäly, jossa on sekä tekoälyn etiikka että AI Legal -tarkistus
  • Muut

Sekä tekoälyn eettisen kaksoistarkistuksen että tekoälyn oikeudellisen kaksoistarkistajan työskentely rinnakkain tekoälysovelluksessa sukulaisveljenä ja -siskona on joitain erittäin hankalia puolia. Tämä on eräänlainen dualismi, jota voi olla vaikeampi koordinoida kuin luuletkaan (luulen, että me kaikki tiedämme, että veljillä ja sisarilla voi olla tiukimmat siteet, vaikka he voivat myös taistella kuin persut aika ajoin ja vastustaa voimakkaasti näkymät).

Olen keskustellut pitkään tämän tyyppisistä vaikeista asioista dualismi: "Sosiaalisen hyvän tekoälyssä esiintyy laiminlyötyä dualismia, johon liittyy sekä keinotekoisen moraalisen tahdon roolin että keinotekoisen oikeudellisen päättelyn puuttuminen kehittyneissä tekoälyjärjestelmissä. Tekoälyn tutkijoiden ja tekoälykehittäjien ponnistelut ovat yleensä keskittyneet keinotekoisten moraaliagenttien luomiseen ja upottamiseen ohjaamaan moraalista päätöksentekoa, kun tekoälyjärjestelmä toimii kentällä, mutta ne eivät ole myös keskittyneet ja yhdistäneet keinotekoisten laillisten päättelykykyjen käyttöä. , joka on yhtä välttämätön vankkojen moraalisten ja oikeudellisten tulosten saavuttamiseksi" (Lance Eliot, "The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning in AI For Social Good", Harvard University CRCS Annual Conference 2020, Harvard Center for Research and Computation Society)

Jos haluat pohtia, miksi tekoälyn eettisen ja oikeudellisen tekoälyn kaksinkertaisen tarkistajan välillä voi olla jännitteitä, saatat löytää tämän huomionarvoisen lainauksen ajatuksia herättävästä käsitteellisyydestä: "Laki voi sallia tietyn toiminnan, vaikka tuo teko on moraalitonta; ja laki voi kieltää teon, vaikka se on moraalisesti sallittua tai jopa moraalisesti pakollista” (Shelly Kagan, Moraalin rajat, 1998).

Siirretään hieman painopistettämme ja katsotaan kuinka nämä kaksoistarkistukset liittyvät toiseen erittäin tutkittuun tekoälyaiheeseen, nimittäin Vastuullinen tekoäly tai yhteistä pohdintaa inhimillisten arvojen ja tekoälyn yhteensovittamisesta.

Yleinen käsitys on, että haluamme tekoälyn, joka noudattaa oikeita ja toivottavia inhimillisiä arvoja. Jotkut kutsuvat tätä nimellä Vastuullinen tekoäly. Muut keskustelevat samalla tavalla Vastuullinen AI, Luotettava tekoälyja AI-linjaus, jotka kaikki koskettavat samaa kulmakiviperiaatetta. Näistä tärkeistä kysymyksistä käydyn keskustelun osalta katso linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Kuinka saamme tekoälyn mukautumaan inhimillisten arvojen kanssa?

Kuten aiemmin ehdotettiin, toivomme, että tekoälykehittäjät olisivat tietoisia kehittämään tekoälyä, joka saavuttaa vastuullisen tekoälyn noudattamisen. Valitettavasti he eivät ehkä aiemmin selvitettyjen syiden mukaisesti. Lisäksi he saattavat yrittää tehdä niin, mutta siitä huolimatta tekoäly päätyy itsesäätymään eettisen käyttäytymisen keskeisten alueiden ulkopuolelle tai mahdollisesti laittomille vesille.

Selvä, meidän on sitten harkittava käteviä kaksoistarkistuslaitteitamme keinona hillitä näitä riskejä ja altistuksia. Hyvin suunnitellun tekoälyn eettisen kaksoistarkistuksen käyttö voi merkittävästi auttaa sovittamaan tekoäly ihmisten arvoihin. Samoin hyvin suunnitellun tekoälyn juridisen kaksoistarkistuksen käyttö voi merkittävästi auttaa sovittamaan tekoäly ihmisten arvoihin.

Siten ratkaiseva ja vielä tuntematon keino päästä vastuulliseen tekoälyyn, luotettavaan tekoälyyn, vastuulliseen tekoälyyn, tekoälyn yhdenmukaistamiseen jne. sisältäisi tekoälyn kaksoistarkistuslaitteiden, kuten tekoälyn eettisen kaksoistarkistuksen ja AI Legal -kaksoistarkistus, joka toimisi väsymättä kaksinkertaisena AI-tarkistuksena, että ne on upotettu sisään.

Tässä keskustelussa haluaisin käsitellä hieman tarkemmin tekoälyyn mahdollisesti upotettavien lakisääteisten kaksoistarkistusten luonnetta ja rakenteita. Tätä varten saattaa olla hyödyllistä jakaa kanssasi lisätietoja aiheesta AI & laki.

Katso keskusteluni osoitteesta, jos haluat tarkastaa, kuinka tekoäly ja laki sekoittuvat toisiinsa. linkki tähän. Tarkkaan katsoessani AI & laki kytkentä, tarjoan tämän suoraviivaisen käsityksen kahdesta tärkeästä tavasta yhdistää tekoäly ja laki toisiinsa:

  • (1) Tekoälyyn sovellettava laki: Tekoälyn säätelyyn tai hallintaan yhteiskunnassamme sovellettavien lakien muotoilu, säätäminen ja täytäntöönpano
  • (2) AI-applied to Law: Tekoälytekniikka, joka on suunniteltu ja sovellettu lakiin, mukaan lukien tekoälyyn perustuva Legal Reasoning (AILR) infusoituna LegalTechin huipputeknisiin sovelluksiin itsenäisesti tai puoliautonomisesti asianajajatehtävien suorittamiseksi

Ensimmäinen lueteltu näkökulma koostuu pohtimisesta, kuinka nykyiset ja uudet lait ohjaavat tekoälyä. Toinen lueteltu näkökulma liittyy tekoälyn soveltamiseen lakiin.

Tämä jälkimmäinen luokka sisältää yleensä tekoälypohjaisen oikeudellisen perustelun (AILR) käyttämisen erilaisissa lakimiesten käyttämissä online-työkaluissa. Tekoäly voi esimerkiksi olla osa Contract Life Cycle Management (CLM) -pakettia, joka auttaa asianajajia tunnistamalla sopimuskielen, josta on hyötyä uusien sopimusten laadinnassa, tai se voi havaita sopimuksia, joissa on laillisesti toivottavaa kieltä, joka mahdollistaa onnettomuuksien tai oikeudellisten porsaanreikien. (Katsoksesi niin sanottuja "lainhajuja", jotka tekoäly voi havaita, katso linkki tähän).

Tekoälyä sovelletaan väistämättä lakiin, joka tulee suuren yleisön käyttöön ja joka ei edellytä asianajajan olevan perillä. Tällä hetkellä useiden rajoitusten, mukaan lukien UPL (Unauthorized Practical of Law) vuoksi tekoälypohjaisten lainopillisten neuvontasovellusten saatavuus on hankala ja kiistanalainen asia, katso keskusteluni osoitteessa linkki tähän.

Esitin tämän tekoälyä ja lakia koskevan johdannon huomauttaakseni, että toinen lakiin sovellettava tekoälyn instrumentaalinen käyttö olisi tekoälyn oikeudellisten kaksoistarkistusten luominen.

Kyllä, samanlainen tekninen kyky, joka liittyy tekoälyn soveltamiseen lakiin, voi toimia kaksinkertaisena velvollisuutena, kun tekoälyä käytetään sulautetun tai istutetun tekoälyn juridisen kaksoistarkistuslaitteena. AI Legal -kaksoistarkistus on osa, joka on perehdyttävä oikeudellisiin näkökohtiin. Kun muu AI-sovellus suorittaa erilaisia ​​toimintoja, AI Legal -tarkistus arvioi, toimiiko tekoälysovellus laillisesti ja laillisten rajoitusten puitteissa.

AI Legal -kaksoistarkistuskomponentin ei välttämättä tarvitse kattaa kaikkea laista, joka on tiedettävä. Tekoälysovelluksen luonteesta ja tekoälyn yleisestä tarkoituksesta ja toimista riippuen tekoälyoikeudellinen kaksoistarkistus voi olla paljon kapeampi sen sisältämän oikeudellisen asiantuntemuksen suhteen.

Olen löytänyt hyödyllisen kehyksen esitelläksesi, kuinka tekoäly laillisella alueella vaihtelee useiden autonomisten kapasiteettien välillä, jotka tunnetaan nimellä Levels of Autonomy (LoA). Katso yleiskatsaus minun Forbes 21. marraskuuta 2022 julkaistu sarakepostitus "No-nonsense Comprehensive Compeling Case for Miksi lakimiesten on tiedettävä tekoälystä ja laista" osoitteessa linkki tähän, ja yksityiskohtaisen teknisen kuvauksen löydät perusteellisesta tutkimusartikkelistani julkaisussa MIT Computational Law Journal 7. joulukuuta 2021, katso linkki tähän.

Viitekehyksessä selvitetään viisi tekoälyn tasoa, joita käytetään oikeudellisissa toimissa:

  • Taso 0: Ei automaatiota tekoälypohjaiseen juridiseen työhön
  • Taso 1: Yksinkertainen apuautomaatio tekoälypohjaiseen juridiseen työhön
  • Taso 2: Edistyksellinen apuautomaatio tekoälypohjaiseen juridiseen työhön
  • Taso 3: Puoliautonominen automaatio tekoälypohjaiseen juridiseen työhön
  • Taso 4: Itsenäinen toimialue tekoälypohjaiselle lakityölle
  • Taso 5: Täysin itsenäinen tekoälypohjaiseen juridiseen työhön

Kuvailen niitä lyhyesti tässä.

Tasoa 0 pidetään ei-automaattitasona. Oikeudelliset perustelut ja juridiset tehtävät suoritetaan manuaalisin menetelmin, ja ne tapahtuvat pääsääntöisesti paperilla.

Taso 1 koostuu yksinkertaisesta avustusautomaatiosta tekoälyn juridista päättelyä varten. Esimerkkejä tästä luokasta ovat päivittäisen tietokonepohjaisen tekstinkäsittelyn käyttö, jokapäiväisten tietokonepohjaisten laskentataulukoiden käyttö, pääsy sähköisesti tallennettuihin ja noudettaviin online-oikeudellisiin asiakirjoihin ja niin edelleen.

Taso 2 sisältää edistyneen apuautomaation tekoälyn juridista päättelyä varten. Esimerkkejä tästä luokasta ovat kyselytyylisen alkeellisen luonnollisen kielen käsittelyn (NLP) käyttö, koneoppimisen (ML) yksinkertaistetut elementit, tilastolliset analyysityökalut oikeustapausten ennustamiseen jne.

Taso 3 koostuu puoliautonomisesta automaatiosta tekoälyn juridista päättelyä varten. Esimerkkejä tästä luokasta ovat kehittyneiden tietopohjaisten järjestelmien (KBS) käyttö oikeudelliseen päättelyyn, koneoppimisen ja syväoppimisen (ML/DL) käyttö oikeudelliseen päättelyyn, edistynyt NLP ja niin edelleen.

Taso 4 koostuu toimialueen autonomisista tietokonepohjaisista järjestelmistä tekoälyn juridista päättelyä varten. Tämä taso käyttää uudelleen käsitteellistä käsitettä ODD:t (Operational Design Domains), jota käytetään itseajavissa autoissa, mutta sellaisena kuin sitä sovelletaan lakialueeseen. Oikeusalueet voidaan luokitella toiminnallisten alojen mukaan, kuten perheoikeus, kiinteistöoikeus, konkurssilaki, ympäristölaki, verolaki jne.

Taso 5 koostuu täysin itsenäisistä tietokonepohjaisista järjestelmistä tekoälyn juridista päättelyä varten. Tietyssä mielessä taso 5 on tason 4 yläjoukko, kun se kattaa kaikki mahdolliset lailliset alueet. Huomaa, että tämä on melko pitkä tilaus.

Voit ajatella näitä autonomiatasoja samankaltaisten käyttötapojen kanssa, kun keskustelet itseohjautuvista autoista ja autonomisista ajoneuvoista (perustuu myös viralliseen SAE-standardiin, katso artikkelini osoitteessa linkki tähän). Meillä ei vielä ole SAE Level 5 itseohjautuvia autoja. Olemme siirtymässä SAE-tason 4 itseohjautuviin autoihin. Useimmat perinteiset autot ovat SAE-tasolla 2, kun taas jotkut uudemmat autot ovat siirtymässä SAE-tasolle 3.

Lakialalla meillä ei vielä ole tason 5 AILR:ää. Käsittelemme jotain tasoa 4, vaikkakin erittäin kapeilla ODD-arvoilla. Taso 3 alkaa nähdä päivänvaloa, kun taas AILR:n tukipilari on nykyään pääasiassa tasolla 2.

Äskettäinen tutkimusartikkeli tekoälystä lakiin sovelletuna on esittänyt tyypityksen, joka tunnetaan nimellä Laki informoi koodia. Tutkija toteaa seuraavaa: ”Yksi tärkeimmistä tavoitteista Laki informoi koodia tehtävänä on opettaa tekoäly noudattamaan lain henkeä" (John J. Nay, "Laki informoi koodia: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans", Northwestern Journal of Technology and Intellectual Property, osa 20, tulossa). On olemassa joitakin olennaisia ​​näkökohtia, jotka Laki informoi koodia mantra tuo esiin, ja opastan sinut useiden noista Keystone-ohjeista.

Ennen kuin sukeltaa aiheeseen, haluaisin ensin luoda olennaisen perustan tekoälylle ja erityisesti tekoälyn etiikkaan ja tekoälylakiin varmistaakseni, että keskustelu on kontekstuaalisesti järkevää.

Kasvava tietoisuus eettisestä tekoälystä ja myös tekoälylainsäädännöstä

Tekoälyn viimeaikaista aikakautta pidettiin alun perin sellaisena AI Hyvä, mikä tarkoittaa, että voimme käyttää tekoälyä ihmiskunnan parantamiseen. Kannoilla AI Hyvä tuli ymmärrys, että olemme myös uppoutuneita AI huono. Tämä sisältää tekoälyn, joka on suunniteltu tai itse muutettu syrjiväksi ja joka tekee laskennallisia valintoja, jotka aiheuttavat kohtuutonta harhaa. Joskus tekoäly on rakennettu tällä tavalla, kun taas toisissa tapauksissa se poikkeaa tuolle epäsuotuisalle alueelle.

Haluan olla täysin varma, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluaisimme villisti spekuloida tuntevasta tekoälystä, tämä keskustelu voisi mennä radikaalisti toiseen suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (erittäin älykkään tekoälyn mahdollisuuksien tutkimista varten, ks. kattavuus täällä).

Suosittelen vahvasti, että pidämme asiat maanläheisinä ja harkitsemme nykypäivän laskennallista ei-aistia tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

Ole erittäin varovainen tämän päivän tekoälyn antropomorfoinnissa.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Lisäksi tekoälyn kehittäjät eivät ehkä ymmärrä, mitä on tekeillä. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä se saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhoja.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Kaikella tällä on huomattavan merkittäviä tekoälyn eettisiä vaikutuksia, ja se tarjoaa kätevän ikkunan opittuihin opetuksiin (jopa ennen kuin kaikki oppitunnit tapahtuvat), kun on yritettävä säätää tekoälyä.

Tekoälyn eettisten ohjeiden yleisen soveltamisen lisäksi on vastaava kysymys, pitäisikö meillä olla lakeja säätelemään tekoälyn eri käyttötapoja. Liittovaltion, osavaltion ja paikallisen tason uudet lait koskevat tekoälyn suunnittelun laajuutta ja luonnetta. Pyrkimys tällaisten lakien laatimiseen ja säätämiseen on asteittaista. Tekoälyn etiikka toimii ainakin harkittuna pysähdyspaikkana, ja se sisällytetään lähes varmasti jossain määrin suoraan näihin uusiin lakeihin.

Huomaa, että jotkut väittävät jyrkästi, ettemme tarvitse uusia tekoälyä koskevia lakeja ja että nykyiset lakimme ovat riittäviä. He varoittavat, että jos säädämme osan näistä tekoälylaeista, tapamme kultaisen hanhen hillitsemällä tekoälyn edistysaskeleita, jotka tarjoavat valtavia yhteiskunnallisia etuja.

Aiemmissa kolumneissa olen käsitellyt erilaisia ​​kansallisia ja kansainvälisiä pyrkimyksiä laatia ja säätää tekoälyä sääteleviä lakeja, ks. linkki tähän, esimerkiksi. Olen myös käsitellyt erilaisia ​​tekoälyn eettisiä periaatteita ja ohjeita, jotka eri valtiot ovat tunnistaneet ja omaksuneet, mukaan lukien esimerkiksi Yhdistyneiden kansakuntien pyrkimykset, kuten Unescon tekoälyn etiikka, jonka lähes 200 maata on hyväksynyt, ks. linkki tähän.

Tässä on hyödyllinen avainlista eettisistä tekoälykriteereistä tai ominaisuuksista koskien tekoälyjärjestelmiä, joita olen aiemmin tutkinut tarkasti:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Tekoälykehittäjien oletetaan vakavasti hyödyntävän näitä tekoälyn eettisiä periaatteita, samoin kuin ne, jotka hallitsevat tekoälyn kehitystyötä, ja jopa ne, jotka viime kädessä ottavat käyttöön ja ylläpitävät tekoälyjärjestelmiä.

Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten tässä on aiemmin korostettu, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, jota varten koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Olen myös hiljattain tutkinut AI Bill of Rights joka on virallinen otsikko Yhdysvaltain hallituksen viralliselle asiakirjalle nimeltä "Tekoälyn Bill of Rights: Making Automated Systems Work for the American People", joka oli tulos Office of Science and Technology Policyn (OSTP) vuoden kestäneestä työstä. ). OSTP on liittovaltion yksikkö, joka neuvoo Yhdysvaltain presidenttiä ja Yhdysvaltain toimeenpanovirastoa erilaisissa kansallisesti tärkeissä teknologisissa, tieteellisissä ja teknisissä näkökohdissa. Tässä mielessä voit sanoa, että tämä AI Bill of Rights on Yhdysvaltain nykyisen Valkoisen talon hyväksymä ja hyväksymä asiakirja.

AI Bill of Rightsissa on viisi Keystone-luokkaa:

  • Turvalliset ja tehokkaat järjestelmät
  • Algoritminen syrjinnän suoja
  • Tietosuoja
  • Huomio ja selitys
  • Inhimilliset vaihtoehdot, harkinta ja varavaihtoehto

Olen tarkastanut nuo ohjeet huolellisesti, katso linkki tähän.

Nyt kun olen luonut hyödyllisen perustan näille aiheeseen liittyville tekoälyn etiikkaa ja tekoälylakia koskeville aiheille, olemme valmiita hyppäämään AI Legal -kaksoistarkistusten ja Laki informoi koodia.

Tekoälyn lailliset kaksoistarkistukset, jotka on upotettu tekoälyyn ihmisen arvon mukauttamiseksi

Joskus viittaan Tekoälyn oikeudellinen kaksoistarkistus AI-LDC:n lyhenteen kautta. Tämä on visuaalisesti hieman hämmentävää niille, jotka eivät tunne lyhennettä. Sellaisenaan en käytä tätä nimenomaista lyhennettä tässä keskustelussa, mutta halusin mainita sen sinulle huomautuksena.

Tarkastellaan näitä tärkeimpiä kohtia tekoälyoikeudellisten kaksoistarkistustoimintojen monimutkaisuuden purkamiseksi:

  • Tekoälyn juridisten kaksoistarkistusten käyttö tekoälyn ihmisten arvojen mukauttamismekanismina
  • Laajempi tekoäly vaatii vastaavasti tehokkaampia tekoälyoikeudellisia kaksoistarkistuksia
  • Tekoälyoikeudelliset kaksoistarkistajat säätävät lain, eivätkä varsinkaan tee lakia (oletettavasti)
  • Herkkä tasapaino tekoälyn välillä. Lain oikeudellinen ilmentymä sääntöjen ja standardien välillä
  • Vaaditaan todisteet vanukasta, kun kyse on lakien noudattamisesta

Tilan rajoitusten vuoksi käsittelen vain nämä viisi kohtaa toistaiseksi, mutta ole hyvä ja tarkkaile kolumnissani lisää ja yhtä huomionarvoisia näkökohtia näistä nopeasti kehittyvistä ja eteenpäin vievistä asioista.

Kiinnitä turvavyö juuri nyt ja valmistaudu virkistävään matkaan.

  • Tekoälyn juridisten kaksoistarkistusten käyttö tekoälyn ihmisten arvojen mukauttamismekanismina

On monia tapoja yrittää saavuttaa harmoninen linjaus tekoälyn ja ihmisten arvojen välillä.

Kuten aiemmin mainittiin, voimme tuottaa ja levittää tekoälyn eettisiä ohjeita ja pyrkiä saamaan tekoälykehittäjät ja tekoälyä harjoittavat ja operoivat tahot noudattamaan näitä kulmakiviä. Valitettavasti tämä ei yksin auta. Sinulla on suunnittelijoita, jotka eivät väistämättä ymmärrä viestiä. Sinulla on kekseliäitä, jotka kehuvat eettistä tekoälyä ja yrittävät kiertää jokseenkin löysät määrätyt periaatteet. Ja niin edelleen.

Tekoälyn etiikkaan liittyvien "pehmeän lain" lähestymistapojen käyttö on lähes väistämättä yhdistettävä "kovan lain" keinoihin, kuten sellaisten lakien ja määräysten säätämiseen, jotka lähettävät mojovan signaalin kaikille tekoälyn luojille tai käyttäjille. Lain pitkä käsivarsi saattaa saada sinut, jos et käytä tekoälyä harkitusti. Vankilan ovien kolina saattaisi herättää huomiota.

Iso ongelma on kuitenkin se, että joskus navetan ovi on jo päästänyt hevoset ulos. Tehty tekoäly saattaa mahdollisesti tuottaa kaikenlaisia ​​laittomia tekoja ja jatkaa niin, kunnes se ei vain jää kiinni, vaan myös silloin, kun jotkut täytäntöönpanotoimet lopulta ryhtyvät estämään laittomien toimien kulkua. Kaikki tämä voi viedä aikaa. Samaan aikaan ihmisiä vahingoitetaan tavalla tai toisella.

Tähän kokeiluun tulee AI Legal -kaksoistarkistus.

Tekoälysovelluksen sisällä AI Legal -tarkistus pystyy havaitsemaan välittömästi, milloin tekoäly näyttää olevan lain vastainen. Tekoälyoikeudellinen kaksoistarkistus saattaa pysäyttää tekoälyn raiteillaan. Tai komponentti saattaa varoittaa ihmisiä havaituista laittomista toimista, tehden sen ajoissa, mikä voi saada valvojat ryhtymään kiireellisiin korjaaviin toimiin. Mukana on myös harkittu muodollinen kirjaus, jonka komponentti voisi luoda ja joka tarjoaa konkreettisen vaikutelman kirjausketjusta tekoälyn haitallisten toimintojen kodifiointia varten.

Lakiemme sanotaan olevan eräänlainen monen tahon yhteenliittymä, joten lait ovat väistämättä sekoitus sitä, mitä yhteiskunta on pyrkinyt tasapainottamaan todennäköisten ristiriitaisten näkemysten välillä oikeasta ja sopimattomasta yhteiskunnallisesta käyttäytymisestä. Lakiimme perustuva tekoälyoikeudellinen kaksoistarkistus sisältää siksi tämän yhdistelmän.

Erityisesti tämä on enemmän kuin vain lopullisten oikeudellisten sääntöjen luettelon ohjelmointi. Lait ovat yleensä muokattavampia ja pyrkivät kohti yleisiä standardeja sen sijaan, että määrittäisivät pienimmätkin mikroskooppiset säännöt. Monimutkaisuuksia on runsaasti.

Palatakseni aiemmin mainittuun tutkimusartikkeliin, näin nämä näkökohdat voidaan katsoa myös tekoälyn kohdistamiseen liittyen: "Laki, sovellettu usean tekijän kohdistuksen filosofia, täyttää nämä kriteerit ainutlaatuisella tavalla. Kohdistus on ongelma, koska emme voi etukäteen määritellä säännöt, jotka ohjaavat täysin ja todistettavasti hyvää tekoälykäyttäytymistä. Vastaavasti oikeudellisen sopimuksen osapuolet eivät voi ennakoida suhteensa kaikkia satunnaisia ​​tekijöitä, eivätkä lainsäätäjät voi ennustaa erityisolosuhteita, joissa heidän lakejaan sovelletaan. Siksi suuri osa lainsäädännöstä on standardien yhdistelmä” (ibid).

Lain sisällyttäminen tekoälyyn Legal-tarkistus on paljon haastavampaa kuin aluksi luulisi.

Tekoälyn kehittyessä meidän on hyödynnettävä näitä edistysaskeleita vastaavasti. Osoittautuu, että mikä on hyvää hanhille, on hyvää myös hanhille. Ne meistä, jotka edistyvät tekoälyssä lain mukaisesti, työntävät tekoälyä ja luomme epäilemättä uusia edistysaskeleita, jotka voivat lopulta edistää tekoälyn edistymistä kokonaan.

  • Laajempi tekoäly vaatii vastaavasti tehokkaampia tekoälyoikeudellisia kaksoistarkistuksia

Kissa-hiiri-gambitti kohtaa tämän aiheen.

Todennäköisesti tekoälyn kehittyessä minkä tahansa AI Legal -kaksoistarkistuskomponentin on vaikeampi käsitellä asioita. Esimerkiksi tutkittava tekoälysovellus on saattanut keksiä äskettäin erittäin harhaanjohtavia tapoja piilottaa tekoälyn tekemät laittomat toimet. Vaikka tekoäly ei valitsekaan alikäsiteltyä reittiä, tekoälyn yleinen monimutkaisuus voi yksinään olla pelottava este AI Legal -tarkistusarvioinnissa.

Näin tästä tulee erityisen merkittävää.

Oletetaan, että tekoälykehittäjä tai jokin tekoälyä hyödyntävä yritys ilmoittaa, että tekoälypohjaiseen sovellukseen on upotettu AI Legal -tarkistus. Voila, he näyttävät nyt pestäneen kätensä kaikista muista huolenaiheista. AI Legal -kaksoistarkistus huolehtii kaikesta.

Ei niin.

Tekoälyoikeudellinen kaksoistarkistus saattaa olla riittämätön kyseessä olevan tekoälysovelluksen luonteen vuoksi. On myös mahdollista, että AI Legal -kaksoistarkistus vanhentuu, eikä sitä ehkä päivitetä uusimmilla tekoälysovellusta koskevilla laeilla. Voidaan ennakoida monia syitä sille, miksi pelkkä tekoälyoikeudellisen kaksoistarkistuksen läsnäolo ei ole hopealuodi.

Harkitse näitä aiemman lainatun tutkimuksen oivalluksia: "Tekoälyn uusimman tekniikan edistyessä voimme asettaa toistuvasti korkeammat vaatimukset todistetuille juridisille ymmärryskyvyille. Jos kehittäjä väittää, että hänen järjestelmällään on edistyneitä valmiuksia tehtäviin, hänen tulee osoittaa vastaavasti edistynyt oikeudellinen ymmärrys sekä tekoälyn oikeudelliset päättelykyvyt, joilla ei käytännössä ole vaikeuskattoa, kun otetaan huomioon lakien ja määräysten sota ajan, ennakkotapauksen ja lainkäyttövallan välillä. ” (ibid).

  • Tekoälyoikeudelliset kaksoistarkistajat säätävät lain, eivätkä varsinkaan tee lakia (oletettavasti)

Olen varma, että jotkut teistä ovat järkyttyneitä ajatuksesta ottaa käyttöön nämä tekoälyoikeudelliset kaksoistarkistukset.

Yksi usein puhuttu huolenaihe on se, että aiomme ilmeisesti antaa tekoälyn päättää lakeistamme puolestamme. Voi luoja, saatat ajatella, että jokin automaatio ohittaa ihmiskunnan. Näistä helvetin upotetuista tekoälyoikeudellisista kaksoistarkistuksista tulee lakiemme oletuskuninkaat. Mitä tahansa he tekevätkin, on sitä, mitä laki näyttää olevan.

Ihmisiä hallitsee tekoäly.

Ja nämä tekoälyoikeudelliset kaksoistarkistukset ovat liukas rinne, joka vie meidät perille.

Vasta-argumentti on, että tällainen puhe on salaliittoteorioiden kamaa. Olet villisti olettaen ja saat itsesi kiusaan. Tosiasia on, että nämä tekoälyoikeudelliset kaksoistarkistajat eivät ole tajullisia, he eivät aio valloittaa planeettaa, ja heidän eksistentiaalisista riskeistään hyppiminen on ilmiselvästi typerää ja suunnattoman liioiteltua.

Kaiken kaikkiaan, pysyen rauhallisena ja perusteltuna, meidän on oltava tietoisia siitä, että tekoälyn oikeudelliset kaksoistarkistimet heijastavat asianmukaisesti lakia, eivät suunnitelmallisesti tai vahingossa mene pidemmälle ollakseen jotenkin oletusarvoisesti arvostettuna laki. Tunteiden ekstrapoloinnit huomioimatta voimme varmasti olla samaa mieltä siitä, että on olemassa todellinen ja painava huoli siitä, että tekoälyoikeudellinen kaksoistarkistus saattaa päätyä antamaan väärän kuvan tietyn lain todellisesta luonteesta.

Voidaan puolestaan ​​väittää, että siksi tuo tietty "harhaan esitelty" laki tehdään olennaisesti uudelleen, koska se ei enää tarkoita osuvasti sitä, mitä varsinaisella lailla oli tarkoitettu. Luotan siihen, että näette suoraan, kuinka tämä on hienovarainen, mutta paljastava huomio. Tekoälyn oikeudellinen kaksoistarkistus voi milloin tahansa virtuaalisesti laatia tai sanoako "hallusinoida" uusia lakeja yksinkertaisesti sillä, miten tekoälykomponentti tulkitsee lakia niin kuin tekoäly alun perin todettiin tai sisältyi tekoälyyn (katsomaani AI ns hallusinaatiotKatso linkki tähän).

Tästä on huolehdittava tiukasti.

Tästä aiheesta edellä mainittu tutkimus tarjoaa tämän rinnakkaisen ajatuksen pyrittäessä välttämään tuon pyhän rajan ylittäminen: "Emme pyri siihen, että tekoälyllä on legitiimiys antaa lakia, luoda oikeudellinen ennakkotapaus tai valvoa lakia. Itse asiassa tämä heikentäisi lähestymistapaamme (ja meidän pitäisi panostaa huomattavasti sen estämiseen). Sen sijaan Law Informing Coden kunnianhimoisin tavoite on koodata laskennallisesti ja upottaa olemassa olevien juridisten käsitteiden ja standardien yleistettävyys validoituun tekoälyn suorituskykyyn” (ibid).

  • Herkkä tasapaino tekoälyn välillä. Lain oikeudellinen ilmentymä sääntöjen ja standardien välillä

Lait ovat sotkuisia.

Melkein minkä tahansa kirjoja koskevan lain kohdalla on todennäköisesti lukuisia tulkintoja siitä, mitä laki käytännössä määrää. Tekoälykentän kielessä puhumme lakeista semanttisesti moniselitteisinä. Tämä tekee tekoälyn kehittämisestä lakiin sovelletuna jännittävän ja samalla kiusallisen haasteen. Toisin kuin tarkat numerot, joita saatat nähdä esimerkiksi taloudellisiin suuntautuneisiin tekoälysovelluksiin, halu muuttaa lakejamme tekoälyksi edellyttää semanttisten epäselvyyksien tsunamista.

Säätiöni kirjassa AI Legal Reasoningin (AILR) perusteista käsittelen sitä, kuinka aiemmat yritykset kodifioida lakeja rajoitetuiksi säännöiksi eivät päässeet niin pitkälle kuin haluaisimme oikeudessa (katso linkki tähän). Nykypäivän AILR:n on sisällettävä integraatio sääntöjen käytön ja niin kutsuttujen yleisten standardien välillä, joita laki edustaa.

Tämä tärkeä tasapaino voidaan ilmaista näin: "Käytännössä useimmat oikeudelliset määräykset laskeutuvat jonnekin puhtaan säännön ja puhtaan standardin väliselle spektrille, ja oikeusteoria voi auttaa arvioimaan "säännöllisyyden" ja "standardinmukaisuuden" oikean yhdistelmän. määriteltäessä tekoälyjärjestelmien tavoitteita” (ibid).

  • Vaaditaan todisteet vanukasta, kun kyse on lakien noudattamisesta

Haluaa jotain on eri asia kuin saada jotain.

Tuo viisauden rappu tulee esille, kun ehdotamme, että vaikka saatammekin haluta tekoälyoikeudellisia kaksoistarkistuksia, meidän on ehdottomasti varmistettava, että ne toimivat ja toimivat oikein. Huomaa, että tämä on toinen vaikea ja uuvuttava este. Olen käsitellyt aiemmin viimeisimmät edistysaskeleet ja haasteet tekoälyn todentamisessa ja validoinnissa, katso linkki tähän.

Kuten tutkimuspaperissa todettiin: "Tämän aukon korjaamiseksi, ennen kuin tekoälymalleja otetaan käyttöön yhä enemmän toiminnassa, esim. täysin autonomisissa ajoneuvoissa pääteillä, käyttöön ottavan osapuolen tulee osoittaa, että järjestelmä ymmärtää inhimillisiä tavoitteita, käytäntöjä ja oikeudellisia standardeja. Validointimenettely voisi havainnollistaa tekoälyn "ymmärrystä" juridisten käsitteiden "merkityksestä" (ibid).

Yhteenveto

Kehotan sinua harkitsemaan liittymistäni tähän jaloon pyrkimykseen rakentaa ja harjoittaa tekoälyoikeudellisia kaksoistarkistuksia. Tarvitsemme enemmän huomiota ja resursseja tähän hyveelliseen pyrkimykseen.

Tämä tarjoaa myös kaksinkertaisen velvollisuuden, kuten aiemmin mainittiin, AILR:n (AI Legal Reasoning) saavuttamisessa, jota voidaan käyttää asianajajien avustamiseen ja jota voidaan mahdollisesti käyttää suoraan suuri yleisö. Jotkut todellakin väittävät kiivaasti, että ainoa toteuttamiskelpoinen tapa saavuttaa täydellisempi oikeussuojan tunne (A2J) on luoda tekoäly, joka ilmentää oikeudellisia valmiuksia ja jota kaikki voivat käyttää.

Yksi nopea viimeinen pointti toistaiseksi.

Tähän mennessä käydyssä keskustelussa on korostettu, että tekoälyoikeudellinen kaksoistarkistus olisi upotettu tai istutettu tekoälyyn. Tämä on todellakin tätä nousevaa aluetta tutkivien ja toteuttavien ensisijainen kohde.

Tässä on pohdinnan arvoinen kysymys.

Laita ajatusmyssy päähän.

Mikset käyttäisi tekoälyoikeudellisia kaksoistarkistuksia kaikissa ohjelmistoissa?

Pääasia on, että sen sijaan, että käyttäisimme yksinomaan tekoälyoikeudellisia kaksoistarkistuksia tekoälyssä, meidän pitäisi ehkä laajentaa näkökulmaamme. Kaikenlaiset ohjelmistot voivat mennä laillisesti harhaan. Tekoäly on tosin saanut leijonan osan huomiosta johtuen tavasta, jolla tekoäly otetaan käyttöön, kuten tekemällä raakoja päätöksiä, jotka vaikuttavat ihmisten jokapäiväiseen elämään. Voisit kuitenkin helposti väittää, että on monia muita kuin tekoälyjärjestelmiä, jotka tekevät samoin.

Pohjimmiltaan meidän ei pitäisi antaa minkään ohjelmiston päästä ilmaiseksi lain välttämiseksi tai estämiseksi.

Muista myös aiemmin, että mainitsin kaksi luokkaa yhdistää tekoäly ja laki. Olemme tässä keskittyneet tekoälyn käyttöön lakiin sovellettaessa. Kolikon toisella puolella on lain soveltaminen tekoälyyn. Oletetaan, että säädämme lakeja, jotka edellyttävät AI Legal -tarkistustoimintojen käyttöä.

Tämä saattaa aluksi rajoittua tekoälyjärjestelmiin, erityisesti niihin, jotka on luokiteltu erityisen riskialttiiksi. Vähitellen sama AI Legal -kaksoistarkistusvaatimus voitaisiin laajentaa myös muihin kuin tekoälyohjelmistoihin. Jälleen, ei ilmaisia ​​ajoja.

Sillä aikaa kun nuudelet tätä yllä olevaa pohdintaa, maustan asioita päätteeksi. Jos yritämme vaatia tekoälyoikeudellisia kaksoistarkistuksia, voimme yhtä hyvin tehdä samoin myös tekoälyn eettisten kaksoistarkistusten suhteen. Tekoälyoikeudellisen kaksoistarkistuksen käyttö on vain puoli tarinaa, emmekä voi laiminlyödä tai unohtaa myös tekoälyn etiikkaa.

Päätän tämän hauskan keskustelun yhdelle suosikkisitaateistani. Yhdysvaltojen ylituomarina toimineen kuuluisan juristin Earl Warrenin viisaiden sanojen mukaan: "Sivistyneessä elämässä laki kelluu etiikan meressä."

Saattaa olla parasta ottaa ne orastavat ja kuplivat AI Legal- ja tekoälyn eettiset kaksoistarkistuslaitteet innokkaasti käyttöön, jos haluamme pitää päämme yllä mahdollisesti uhkaavien raskaiden merien hapan tekoälyn ja ikävien ei-AI-järjestelmien takia, jotka vaarantavat turvallisuutemme. .

Ne saattavat olla ihmiskunnan pelastusliivi.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- ja-ai-laki/