Tekoälyn etiikka pohtii laillisesti velvoittavien sovitusrahastojen ansioita, jotta voidaan varmistaa vastuuvelvollisuus huonosta tekoälystä

Kuka syyttää?

Se saattaa tuntua suoraviivaiselta kysymykseltä, vaikka legendaarisen Abbottin ja Costello-kakson pesäpallojoukkueesta kertovan kuuluisan komedian tapauksessa "kuka" voi olla hämmentävää. Saatat olla epämääräisesti tuttu Kuka on ensimmäinen komedia, josta he tekivät yhden kaikkien aikojen kestävimmistä sarjoista (spoilerivaroitus niille teistä, jotka eivät ole kuulleet sitä).

Abbott kertoo Costellolle, että kuka on ensimmäinen, mikä on toinen ja I Don't Know on kolmas. Nerokas temppu on, että ensimmäinen kellari on nimeltään Kuka, toinen kellari on nimeltään Mikä ja kolmas on nimeltään En tiedä. Tietenkin noilla lauseilla on myös niiden tavanomaiset merkitykset, ja siten yrittäminen tulkita Abbottin sanoja voi olla täysin hämmentävää. Todellakin, Costello kysyy näennäisesti harmitonta kysymystä, kuka on ensin, johon vastaus on vakaasti todettu kyllä. Mutta tämä ei ole Costellolle järkevää, koska hän odotti nimeä ja sen sijaan sai vastaukseksi hämmentävän kyllä.

Vaihteiden vaihtaminen, kun kyse on tekoälyn (AI) tulosta, yksi kiusallisimmista kysymyksistä, joita jatkuvasti kysytään, liittyy siihen, kuka tai kenties mikä joutuu vastuuseen, kun tekoäly menee harhaan.

Olen aiemmin keskustellut rikollisesta vastuusta silloin, kun tekoäly johtaa tai ryhtyy rikollisiin toimiin, katso artikkelini osoitteessa linkki tähän. On myös kysymys siviilioikeudellisesta vastuusta, kuten siitä, kenet tai mitä saatat haastaa oikeuteen, kun tekoäly on tehnyt sinulle väärin, mistä puhun tässä. Kaikella tällä on merkittäviä tekoälyn eettisiä näkökohtia. Jatkuva ja laaja kattavuus tekoälyn eettisyydestä ja eettisestä tekoälystä, katso linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Tekoälyn etiikan ohjeet saavat meidät pysymään valppaina. Tekoälyteknikot voivat toisinaan olla huolissaan teknologiasta, erityisesti huipputekniikan optimoinnista. He eivät välttämättä ota huomioon suurempia yhteiskunnallisia seurauksia. Tekoälyn eettinen ajattelutapa ja sen integroiminen tekoälyn kehittämiseen ja harjoittamiseen on elintärkeää asianmukaisen tekoälyn tuottamiseksi, mukaan lukien (ehkä yllättäen tai ironisesti) arvioitaessa, kuinka tekoälyn etiikka otetaan käyttöön yrityksissä.

Tekoälyn eettisten ohjeiden yleisen soveltamisen lisäksi on vastaava kysymys, pitäisikö meillä olla lakeja säätelemään tekoälyn eri käyttötapoja. Liittovaltion, osavaltion ja paikallisen tason uudet lait koskevat tekoälyn suunnittelun laajuutta ja luonnetta. Pyrkimys tällaisten lakien laatimiseen ja säätämiseen on asteittaista. Tekoälyn etiikka toimii ainakin harkittuna pysähdyspaikkana, ja se sisällytetään lähes varmasti jossain määrin suoraan näihin uusiin lakeihin.

Huomaa, että jotkut väittävät jyrkästi, ettemme tarvitse uusia tekoälyä koskevia lakeja ja että nykyiset lakimme ovat riittäviä. Itse asiassa he varoittavat, että jos säädämme joitakin näistä tekoälylaeista, tapamme kultaisen hanhen hillitsemällä tekoälyn edistysaskeleita, jotka tarjoavat valtavia yhteiskunnallisia etuja.

Kiivasta keskustelua käydään siitä, pystyvätkö nykyiset lait käsittelemään tekoälyjärjestelmien syntyä riittävästi kaikkialla yhteiskunnassa. Oikeudellinen vastuu edellyttää tyypillisesti, että voit kiinnittää aasin hännän sen suhteen, kuka on vastuussa haitallisesta toiminnasta. Tekoälyn tapauksessa saattaa olla melko epäselvä polku, joka sitoo tietyn henkilön tai henkilöt vahingollisen toiminnan suorittaneeseen tekoälyyn. Tekoälyä ei voida suurelta osin jäljittää lähteeseen tai keksijään, joka teki tekoälyn.

Toinen näkökohta on, että vaikka tekoälyn juuret voidaan jäljittää johonkin, kysymys on siitä, eivätkö henkilö tai henkilöt ehkä pystyneet kohtuudella ennakoimaan tekoälyn lopulta aiheuttamaa kielteistä tulosta. Ennakoitavuuden ydin on tavanomaisesti merkittävä tekijä oikeudellista vastuuta arvioitaessa.

Saatat tuntea houkutusta ajatella, että voit yksinkertaisesti mennä tekoälyn perään ja nimetä tekoälyn lailliseksi osapuolelle, joka on vastuussa tai vastuussa kaikesta väitetystä vahingosta. Yleisesti ottaen vallitseva oikeudellinen näkemys on, että tekoäly ei ole vielä saavuttanut oikeushenkilöllisyyden tasoa. Näin ollen et voi tarkasti ottaen yrittää saada tekoäly maksamaan, ja sinun on löydettävä ihmisiä, jotka ikään kuin kulissien takana työskentelivät vipujen takana (katso tekoälyn oikeushenkilöllisyyden analyysini linkki tähän).

Kaikkeen tähän mahdolliseen oikeudelliseen sotaan astuu ajatus, jota nostetaan mahdollisena parannuskeinona joko lyhyellä aikavälillä tai mahdollisesti pitkällä aikavälillä. Ajatuksena on, että ehkä pitäisi perustaa erityinen korvausrahasto tarjoamaan taloudellista apua niille, joita tekoäly on vahingoittanut. Jos et muuten saa tekoälyä korvaamaan sinua, etkä voi naulata henkilöitä, jotka pitäisi oletettavasti saattaa vastuuseen, seuraavaksi paras vaihtoehto voisi olla korvausrahasto, jonka tarkoituksena on auttaa tekoälyn vahingoittamia.

Tällainen rahasto olisi samanlainen kuin eräänlainen vakuutus, kuten ajatuksia herättävässä tutkimuspaperissa todetaan: "Tämä olisi pohjimmiltaan vakuutusmekanismi epävarmuutta vastaan: Selkeä ja avoin kehys nopealle korvaukselle tapauksissa, joissa vastuukanta on epävarma tai ei mitään menestystä johtuen vahingollisen toiminnan ennakoimattomasta luonteesta, itse vahingon tyypistä tai menettelyn kohtuuttomista kustannuksista ja/tai monimutkaisuudesta" (Olivia Erdelyin ja Gabor Erdelyin artikkeli, "The AI ​​Liability Puzzle" Ja rahastoihin perustuva ratkaisu”, Artificial Intelligence Research -lehti, 2021).

Korvausrahasto olisi osa kattavaa tekoälytakuujärjestelmää (AIGS), ja siihen liitetään joitain pieniä muutoksia olemassa oleviin oikeudellista vastuuta koskeviin lakeihin. Kevyt kosketus olisi luultavasti helpompi toteuttaa, eikä se vaatisi vaivalloista oikeudellista ja yhteiskunnallista ahdistusta, jos olemassa oleviin oikeudellisiin järjestelmiin tehtäisiin suolen raastavampi sarja demonstratiivisia muutoksia. Tutkijoiden mukaan: "Tämä kuvastaa uskoamme, että - huolimatta tällaisen pikaratkaisun houkuttelevuudesta - muuttumaton olemassa olevien vastuusääntöjen soveltaminen tekoälyyn tai a protektionistisesti motivoituneita ankaraan vastuuseen turvautuminen vastuun määrittämiseksi hinnalla millä hyvänsä ei ole oikeita vastauksia kolmesta syystä: Ensinnäkin, kun jätetään huomiotta se, että nämä säännöt on räätälöity erilaisiin olosuhteisiin ja ne voivat siten olla tekoälylle sopimattomia, ne ovat ristiriidassa järjestön herkästi tasapainotettujen tavoitteiden kanssa. oikeudellinen vastuujärjestelmä. Toiseksi ne estävät tekoälyn innovointia omaksumalla kohtuuttoman rankaisevan lähestymistavan. Kolmanneksi, kohtuuton turvautuminen ankaraan vastuuseen vain kiertää ennakoitavuutta ja vikaan liittyviä ongelmia dogmaattisesti epäjohdonmukaisella tavalla sen sijaan, että se korjaa niitä” (kuten edellä lainatussa paperissa).

Argumentteja tällaisten tekoälyn korvausrahastojen puolesta ovat mm.

  • Vähentää pitkien ja kalliiden oikeudenkäyntien tarvetta tekoälyn aiheuttamien haittojen selvittämiseksi
  • Vakuuttaa ihmisille, että he voivat hyödyntää tekoälyä ja saada korvauksen, jos he loukkaantuvat
  • Edistää tekoälyinnovaatioita lieventämällä tekoälyn kehittäjien kohtaamaa oikeudellista epävarmuutta
  • Voidaan ottaa käyttöön paljon nopeammin kuin tehdä massiivisia muutoksia olemassa oleviin lakeihin
  • Tarjoaa suhteellisen selkeän lääkkeen, joka on luotettava ja helposti saatavilla
  • Muut

Samaan aikaan ne, jotka vastustavat tekoälyn korvausrahastojen lähestymistapaa, sanovat näin:

  • Otetaan tekoälyn tekijöitä liian irti ja sallitaan heidän kiertää vastuullisuutta
  • Rohkaisee tekoälyn tekijöitä luomaan tekoälyä, josta puuttuu velvollisuus turvallisuus ja kunnolliset hallintalaitteet
  • Saattaa saada ihmiset väittämään virheellisesti tekoälyhaitoista, jotta he voivat hyödyntää varoja
  • Sivuuttaa ja heikentää todellista tarvetta tarkistaa lakejamme hallita tekoälyä riittävästi
  • Siitä voi tulla byrokraattinen painajainen, joka jumiutuu ja käyttää varoja väärin
  • Muut

Kuten saattaa olla ilmeistä, tämän täysin kiistanalaisen käsityksen kannattajia ja vastustajia on.

Sinun olisi vaikea sulkea pois tekoälyn korvausrahastoa mahdollisena lähestymistavana lisääntyvään huoleen haitallista tekoälystä. Myöskään ehdotettu ratkaisu ei ole slam dunk.

Yksi näkemys on, että tekoälyn tekijöiden pitäisi sijoittaa varoja rahastoihin osana ponnistelujaan, kun he suunnittelevat ja levittävät tekoälyä. Tämä voidaan pitää eräänlaisena maksuna tai verona, joka heidän on maksettava osana mahdollisuuksiaan julkaista tekoälynsä maailmalle. Mutta tukahduttaako tämä lisäkustannus mahdollisesti nykypäivän tekoälyn rajoja yrittävien startup-yritysten ponnistelut? Ja miten valvottaisiin sen varmistamista, että tekoälyn tekijät maksavat maksunsa tai veronsa?

Useita kysymyksiä herää ja ne pitäisi pohtia:

  • Missä maissa tekoälyn korvausrahasto olisi paras toteuttamiskelpoinen?
  • Voidaanko luoda maailmanlaajuisesti toisiinsa kytkettyjä tekoälyn korvausrahastoja?
  • Mitkä olisivat tällaisiin rahastoihin liittyvät yksityiskohtaiset ja toimivat mekanismit?
  • Miten tekoälyn korvausrahastot rahoitetaan (julkinen, yksityinen, hyväntekeväisyys)?
  • Olisiko tämä syytön vakuutus vai käytetäänkö jotain muuta lähestymistapaa?
  • Jne.

Tekoälykorvausrahastojen idea on jo levitetty alueeseen, joka koostuu autonomisista järjestelmistä, kuten autonomisista ajoneuvoista ja itseohjautuvista autoista. Katso itseohjautuvista autoista ja autonomisista tekoälyjärjestelmistäni kertova kattavuus linkki tähän.

Tässä on luonnos siitä, kuinka tämä voisi toimia tekoälypohjaisissa itseohjautuvissa autoissa.

Oletetaan, että itse ajava auto törmää pyöräilijään. Pyöräilijä loukkaantui. Pyöräilijä voi hakea oikeussuojaa hakemalla itseohjautuvan ajoneuvon autonvalmistajaa. Tai he saattavat kohdistaa itseohjautuvaan tekniikkayritykseen, joka teki tekoälyjärjestelmän. Jos itseajavaa autoa käytetään laivastona, toinen laillinen keino olisi hakea kaluston hoitajaa. Tekoälyn haastaminen oikeuteen ei ole vaihtoehto tässä vaiheessa, koska tekoälyn oikeushenkilöä ei ole vielä vahvistettu.

Sen sijaan, että ryhdyttäisiin oikeustoimiin näitä osapuolia vastaan, toinen keino olisi jättää hakemus tai vaatimus sopivalle tekoälyn korvausrahastolle. Rahasto olisi virallistanut prosessit, jotka käsittävät vaatimuksen tarkastelun, ja sen jälkeen päättäneet, mitä korvauksia hakijalle voidaan suorittaa. Saattaa olla valitusprosessi, joka auttaa hakijoita, jotka uskovat, että rahasto on hylännyt heidät virheellisesti tai rahasto ei ole maksanut heille riittävästi korvausta.

Teoriassa tekoälyn korvausrahasto olisi paljon nopeampi tapa saada korvausta aiheutuneista haitoista. Voitte kuvitella, kuinka työläs oikeusjuttu voi olla, jolloin oikeuteen nostetut yritykset saattavat yrittää pidentää tapausta.

Asianajajat saattavat kuitenkin korostaa, että tekoälyn korvausrahasto voisi antaa muille osapuolille, kuten tekoälyn tekijöille, ilmeisesti välttää kaikki selkeät rangaistukset siitä, että he ovat päässeet irti itseohjautuvasta autostaan ​​yleisillä teillä ja osuivat pyöräilijään. Mitä muuta nämä yritykset voisivat tehdä "huolimattomasti"? Ilman heidän päänsä päällä roikkuvaa laillisen miekan uhkaavaa haamua voisimme joutua kohtaamaan päivittäin tekoälyä, joka on täynnä vaarallisia kapasiteettia.

Väitteet kulkevat ympäri ja ympäri.

Yhteenveto

Tekoälyn etiikka muistuttaa meitä siitä, että meidän tulee aina ottaa huomioon tekoälyn eettiset ja oikeudelliset seuraukset. Tässä tekoälyn korvausrahastojen tapauksessa ehdotettu ajatus vakuutuksen kaltaisesta varojen poolista, jolla korvataan tekoälyn vahingoittamia varoja, vaikuttaa houkuttelevalta. Rahat näyttävät odottavan siellä valmiina hyödynnettäväksi ja tarjoamaan mahdollisimman pian korvauksen.

Kompromissit siitä, voisiko tämä avata tulvaportit kohti tehdä tekoälystä, jossa on yhä vähemmän turvaohjaimia, on pelottava ja aivan liian todellinen huolenaihe. Meidän ei luultavasti tarvitse lisätä öljyä tuleen, joka on ehkä jo jonkin verran käynnissä.

Pystymmekö silti jotenkin pakottamaan tekoälyn tekijöitä suunnittelemaan asianmukaista eettistä tekoälyä ja samalla perustamaan näitä tekoälyn korvausrahastoja?

Jotkut sanoisivat, että kyllä, voimme. Muuttamalla olemassa olevia lakeja niin, että ne ovat yhdenmukaisia ​​tekoälyn korvausrahastojen kanssa, tekoälyn vahingoittamat henkilöt voisivat hakea oikeudenmukaista korvausta kahdella tavalla.

Kuka on ensimmäisenä?

Kyllä, juuri hän (kuten meissä kaikissa) huomaa ensiksi, että meidän pitäisi pohtia tekoälyn korvausrahastojen mahdollista käyttöä ja muuttaa olemassa olevia lakeja, vaikkakin vain kevyesti. huono AI.

Tästä tärkeästä pohdinnasta ei ole epäselvyyttä.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- vastuullisuus/