Vastuullinen tekoäly nauttii huippuammattilaisen ACM:n AI-eettisestä julistuksesta.

Näitkö tai kuulitko uutiset?

Toinen joukko tekoälyn eettisiä sääntöjä on hiljattain julkaistu.

Voimakkaat suosionosoitukset, jos haluatte.

Sitten taas saatat emme ovat huomanneet sen johtuen siitä, että niin monet muut tekoälyn eettiset säädökset ovat leijuneet jo jonkin aikaa. Jotkut sanovat, että eettisen tekoälyn julistusten näennäisesti jatkuva tunkeutuminen on tulossa hieman turruttavaksi. Kuinka monta tarvitsemme? Pystyykö kukaan pysymään heidän kaikkien perässä? Mikä on paras? Mennäänkö kenties yli laidan tekoälyn eettisten periaatteiden suhteen? Ja niin edelleen.

No, tässä nimenomaisessa tapauksessa sanon, että meidän pitäisi olla erityisen tervetulleita tähän seuran uusimpaan lisäykseen.

Selitän oivaltavasti hetken kuluttua miksi.

Ensinnäkin selvennyksenä viittaan tekoälyn eettiseen ohjeeseen, joka tunnetaan nykyään virallisesti nimellä "Lausunto vastuullisten algoritmisten järjestelmien periaatteista" jonka ACM Technology Policy Council julkaisi äskettäin 26. lokakuuta 2022. Kiitokset asiantuntijaryhmille, jotka kokosivat tämän arvostetun asiakirjan, mukaan lukien pääkirjoittajat Jeanna Matthews (Clarkson University) ja Ricardo Baeza-Yates (Universitat Pompeu Fabra) ).

Teistä asiasta tietävät saattavat tarkkaan tarkasteltuna ymmärtää, että tämä asiakirja vaikuttaa heikosti tutulta.

Hyvä silmä!

Tämä viimeisin inkarnaatio on pohjimmiltaan päivitetty ja laajennettu muunnelma aikaisemmasta yhteisestä "Laskinta algoritmista avoimuudesta ja vastuullisuudesta", jonka ACM US Technology Policy -komitea ja ACM Europe Technology Policy -komitea julkaisivat vuonna 2017. Kolumnieni uskolliset lukijat saattavat muistaa, että Olen ajoittain maininnut vuoden 2017 asetuksen sarakkeessani, joka käsittelee tekoälyn etiikan ja tekoälylain taustalla olevia keskeisiä puolia.

Katso kattavasta ja jatkuvasta tekoälyn etiikkaa ja tekoälylakia koskevista arvioinneistani ja trendianalyysistäni linkki tähän ja linkki tähän, vain muutamia mainitakseni.

Tämä ACM:n viimeisin lausunto on erityisen tärkeä useista elintärkeistä syistä.

Tässä on miksi.

ACM, joka on kätevä lyhenne sanoista Tietokoneiden yhdistys, pidetään maailman suurimpana tietojenkäsittelyyn keskittyvänä yhdistyksenä. Arviolta 110,000 1947 jäsenen ACM on pitkäaikainen edelläkävijä tietojenkäsittelyalalla. ACM tuottaa joitakin tietojenkäsittelyalan parhaista tieteellisistä tutkimuksista ja tarjoaa myös ammattimaista verkottumista ja vetoaa myös tietojenkäsittelyn ammattilaisiin. Sellaisenaan ACM on tärkeä ääni, joka edustaa yleisesti korkean teknologian edustajia ja on pyrkinyt pitkäjänteisesti edistämään tietokonealaa (ACM perustettiin vuonna XNUMX).

Voisin lisätä tähän myös henkilökohtaisen huomion. Kun opiskelin ensin tietokoneiden parissa lukiossa, liityin ACM:ään ja osallistuin heidän koulutusohjelmiinsa, erityisesti jännittävään mahdollisuuteen kilpailla heidän vuotuisessa tietokoneohjelmointikilpailussa (tällaiset kilpailut ovat nykyään laajalti yleisiä ja niitä kutsutaan tyypillisesti nimellä hackathons). Olen edelleen mukana ACM:ssä yliopiston aikana paikallisen yliopistoosastoni kautta ja sain mahdollisuuden oppia johtajuudesta ryhtymällä opiskelijaosaston virkailijaksi. Tullessani alalle liityin ammattiosastoon ja otin jälleen johtajan roolin. Myöhemmin tämän jälkeen, kun minusta tuli professori, toimin ACM-komiteoissa ja toimituskunnissa sekä sponsoroin kampuksen opiskelijaosastoa. Vielä tänäkin päivänä olen aktiivinen ACM:ssä, mukaan lukien ACM US Technology Policy -komiteassa.

Nautin ACM:n ihastuttavasta ja kestävästä visiosta elinikäisestä oppimisesta ja urakehityksestä.

Joka tapauksessa, mitä tulee viimeisimpään tekoälyn eettiseen lausuntoon, sillä tosiasialla, että tämä on ACM:n myöntämä, on sille melkoinen painoarvo. Voit kohtuudella väittää, että eettiset tekoälysäännöt ovat maailmanlaajuisen tietojenkäsittelyammattilaisten ryhmän kokonaisuus tai kollektiivinen ääni. Siinä se kertoo jotain.

On myös se näkökohta, että muut tietokonealalla toimivat inspiroituvat piristymään ja kuuntelemaan siinä mielessä, että he ottavat asianmukaisesti huomioon, mitä heidän tietojenkäsittelytyötovereidensa lausunnossa ilmoittavat. Näin ollen myös niille, jotka eivät ole ACM:ssä tai eivät tiedä mitään arvostetusta ryhmästä, on toivottavasti innokas kiinnostus selvittää, mistä lausunnossa on kyse.

Sillä välin ne, jotka ovat ulkopuolella Tietojenkäsittelyalan asiantuntijat saattaisivat vetää väitteeseen eräänlaisena kulissien taakse sisäpiirin näkemykseen siitä, mitä tietokoneista kiinnostuneet sanovat eettisestä tekoälystä. Haluan kuitenkin korostaa, että lausunto on tarkoitettu kaikille, ei vain tietokoneyhteisön jäsenille, ja siksi pidä mielessä, että tekoälyn eettiset ohjeet ovat ikään kuin kaikki.

Lopuksi on lisätty käänne, jota harvat harkitsevat.

Joskus ulkopuoliset näkevät tietojenkäsittelyyhdistykset teknologiassa polviin asti eivätkä ole erityisen tietoisia tietokoneiden ja tekoälyn yhteiskunnallisista vaikutuksista. Saatat olla houkutus olettaa, että tällaiset ammattiyksiköt välittävät vain uusimmista ja kuumimmista laitteiston tai ohjelmiston läpimurroista. Yleisö näkee heidät yksinkertaisesti sanotulla karkealla tavalla teknisinä nörteinä.

Ennätys on selvä, että olen ollut uppoutunut tietojenkäsittelyn sosiaalisiin vaikutuksiin siitä lähtien, kun aloin tutustumaan tietokoneisiin, ja myös ACM on ollut syvästi mukana tällaisissa aiheissa.

Jokainen, joka on yllättynyt siitä, että ACM on koonnut ja julkaissut tämän lausunnon tekoälyn eettisistä ohjeista, he eivät kiinnitä huomiota näiden asioiden parissa tehtyyn pitkäaikaiseen tutkimukseen ja työhön. Kehotan myös kiinnostuneita tutustumaan ACM:ään kunnolla Eettiset säännöt, jyrkkä ammattieettinen sääntö, joka on kehittynyt vuosien varrella ja korostaa, että järjestelmäkehittäjien on oltava tietoisia pyrkimyksiensä ja tuotteidensa eettisistä seurauksista, noudatettava niitä ja oltava valppaina.

Tekoäly on sytyttänyt tulipalot tietotekniikan eettisistä tiedoista.

Eettisten ja juridisten näkökohtien näkyvyys tietojenkäsittelyalalla on lisääntynyt valtavasti nykypäivän tekoälyn ilmaantumisen myötä. Ammatin edustajia informoidaan ja toisinaan rummutetaan siitä, että he kiinnittävät asianmukaista huomiota tekoälyn etiikkaan ja tekoälylakiin. Lainsäätäjät ovat yhä enemmän tietoisia tekoälyn etiikkaa ja tekoälylakeja koskevista näkökohdista. Yritykset ymmärtävät, että heidän suunnittelemansa tai käyttämänsä tekoäly on sekä edullinen että joskus myös valtavia riskejä ja mahdollisia haittapuolia.

Tarkastellaanpa sitä, mitä on tapahtunut viime vuosien aikana, jotta voidaan luoda sopiva konteksti ennen kuin hyppäämme näihin uusimpiin tekoälyn eettisiin ohjeisiin.

Kasvava tietoisuus eettisestä tekoälystä

Tekoälyn viimeaikaista aikakautta pidettiin alun perin sellaisena AI Hyvä, mikä tarkoittaa, että voimme käyttää tekoälyä ihmiskunnan parantamiseen. Kannoilla AI Hyvä tuli ymmärrys, että olemme myös uppoutuneita AI huono. Tämä sisältää tekoälyn, joka on suunniteltu tai itse muutettu syrjiväksi ja joka tekee laskennallisia valintoja, jotka aiheuttavat kohtuutonta harhaa. Joskus tekoäly on rakennettu tällä tavalla, kun taas toisissa tapauksissa se poikkeaa tuolle epäsuotuisalle alueelle.

Haluan olla täysin varma, että olemme samalla sivulla nykypäivän tekoälyn luonteesta.

Nykyään ei ole aistivaa tekoälyä. Meillä ei ole tätä. Emme tiedä, onko aistillinen tekoäly mahdollista. Kukaan ei voi osuvasti ennustaa, saavutammeko aistillisen tekoälyn, eikä syntyykö sentientti tekoäly jotenkin ihmeellisesti spontaanisti laskennallisen kognitiivisen supernovan muodossa (kutsutaan yleensä singulaariseksi, katso artikkelini osoitteessa linkki tähän).

Tekoälytyyppi, johon keskityn, koostuu tuntemattomasta tekoälystä, joka meillä on nykyään. Jos haluaisimme villisti spekuloida tuntevasta tekoälystä, tämä keskustelu voisi mennä radikaalisti toiseen suuntaan. Tuntevan tekoälyn oletetaan olevan ihmislaatuista. Sinun on otettava huomioon, että tunteva tekoäly on ihmisen kognitiivinen vastine. Enemmänkin, koska jotkut spekuloivat, että meillä saattaa olla superälykäs tekoäly, on mahdollista, että tällainen tekoäly voisi päätyä älykkäämmäksi kuin ihmiset (erittäin älykkään tekoälyn mahdollisuuksien tutkimista varten, ks. kattavuus täällä).

Suosittelen vahvasti, että pidämme asiat maanläheisinä ja harkitsemme nykypäivän laskennallista ei-aistia tekoälyä.

Ymmärrä, että nykypäivän tekoäly ei pysty "ajattelemaan" millään tavalla ihmisen ajattelun tasolla. Kun olet vuorovaikutuksessa Alexan tai Sirin kanssa, keskustelukyvyt saattavat näyttää ihmisiltä, ​​mutta tosiasia on, että se on laskennallista ja siitä puuttuu ihmisen kognitio. Tekoälyn uusin aikakausi on hyödyntänyt laajasti koneoppimista (ML) ja Deep Learningiä (DL), jotka hyödyntävät laskennallista kuvioiden täsmäämistä. Tämä on johtanut tekoälyjärjestelmiin, jotka näyttävät olevan ihmisen kaltaisia ​​taipumuksia. Sitä vastoin nykyään ei ole yhtään tekoälyä, joka näyttäisi olevan tervettä järkeä, eikä siinä ole mitään vankan ihmisen ajattelun kognitiivista ihmettelyä.

Ole erittäin varovainen tämän päivän tekoälyn antropomorfoinnissa.

ML/DL on eräänlainen laskennallinen mallisovitus. Tavallinen lähestymistapa on, että kokoat dataa päätöksentekotehtävästä. Syötät tiedot ML/DL-tietokonemalleihin. Nämä mallit pyrkivät löytämään matemaattisia malleja. Tällaisten mallien löytämisen jälkeen, jos niin on, tekoälyjärjestelmä käyttää niitä kohdatessaan uutta tietoa. Uutta dataa esitettäessä käytetään "vanhaan" tai historialliseen dataan perustuvia malleja nykyisen päätöksen tekemiseksi.

Luulen, että voit arvata mihin tämä on menossa. Jos ihmiset, jotka ovat tehneet kaavoja päätöksiä, ovat sisällyttäneet epäsuotuisia ennakkoluuloja, on todennäköistä, että tiedot heijastavat tätä hienovaraisella mutta merkittävällä tavalla. Koneoppimisen tai Deep Learningin laskennallinen mallinsovitus yrittää yksinkertaisesti matemaattisesti jäljitellä dataa vastaavasti. Tekoälyn luomassa mallintamisessa ei sinänsä näytä olevan tervettä järkeä tai muita tuntevia puolia.

Lisäksi tekoälyn kehittäjät eivät ehkä ymmärrä, mitä on tekeillä. ML/DL:n vaikeaselkoinen matematiikka saattaa vaikeuttaa nyt piilossa olevien harhojen paljastamista. Voit oikeutetusti toivoa ja odottaa, että tekoälykehittäjät testaisivat mahdollisesti hautautuneita harhoja, vaikka tämä onkin hankalampaa kuin miltä se saattaa näyttää. On olemassa vahva mahdollisuus, että jopa suhteellisen laajalla testauksella ML/DL:n mallinsovitusmalleihin sisältyy edelleen harhoja.

Voisit hieman käyttää kuuluisaa tai pahamaineista sanontaa roskat sisään roskat ulos. Asia on siinä, että tämä muistuttaa enemmän harhoja, jotka infusoituvat salakavalasti tekoälyn upottautuessa harhaan. Tekoälyn päätöksenteko-algoritmi (ADM) on aksiomaattisesti täynnä epätasa-arvoa.

Ei hyvä.

Kaikella tällä on huomattavan merkittäviä tekoälyn eettisiä vaikutuksia, ja se tarjoaa kätevän ikkunan opittuihin opetuksiin (jopa ennen kuin kaikki oppitunnit tapahtuvat), kun on yritettävä säätää tekoälyä.

Tekoälyn eettisten ohjeiden yleisen soveltamisen lisäksi on vastaava kysymys, pitäisikö meillä olla lakeja säätelemään tekoälyn eri käyttötapoja. Liittovaltion, osavaltion ja paikallisen tason uudet lait koskevat tekoälyn suunnittelun laajuutta ja luonnetta. Pyrkimys tällaisten lakien laatimiseen ja säätämiseen on asteittaista. Tekoälyn etiikka toimii ainakin harkittuna pysähdyspaikkana, ja se sisällytetään lähes varmasti jossain määrin suoraan näihin uusiin lakeihin.

Huomaa, että jotkut väittävät jyrkästi, ettemme tarvitse uusia tekoälyä koskevia lakeja ja että nykyiset lakimme ovat riittäviä. He varoittavat, että jos säädämme osan näistä tekoälylaeista, tapamme kultaisen hanhen hillitsemällä tekoälyn edistysaskeleita, jotka tarjoavat valtavia yhteiskunnallisia etuja.

Aiemmissa kolumneissa olen käsitellyt erilaisia ​​kansallisia ja kansainvälisiä pyrkimyksiä laatia ja säätää tekoälyä sääteleviä lakeja, ks. linkki tähän, esimerkiksi. Olen myös käsitellyt erilaisia ​​tekoälyn eettisiä periaatteita ja ohjeita, jotka eri valtiot ovat tunnistaneet ja omaksuneet, mukaan lukien esimerkiksi Yhdistyneiden kansakuntien pyrkimykset, kuten Unescon tekoälyn etiikka, jonka lähes 200 maata on hyväksynyt, ks. linkki tähän.

Tässä on hyödyllinen avainlista eettisistä tekoälykriteereistä tai ominaisuuksista koskien tekoälyjärjestelmiä, joita olen aiemmin tutkinut tarkasti:

  • Läpinäkyvyys
  • Oikeus ja oikeudenmukaisuus
  • Ei-ilkeäisyys
  • vastuu
  • yksityisyys
  • hyväntekeväisyys
  • Vapaus ja autonomia
  • Luottamus
  • kestävyys
  • arvokkuus
  • Solidaarisuus

Tekoälykehittäjien oletetaan vakavasti hyödyntävän näitä tekoälyn eettisiä periaatteita, samoin kuin ne, jotka hallitsevat tekoälyn kehitystyötä, ja jopa ne, jotka viime kädessä ottavat käyttöön ja ylläpitävät tekoälyjärjestelmiä.

Kaikki sidosryhmät koko tekoälyn kehityksen ja käytön elinkaaren aikana katsotaan eettisen tekoälyn vakiintuneiden normien mukaisesti. Tämä on tärkeä kohokohta, koska tavallinen oletus on, että "vain koodaajien" tai tekoälyn ohjelmoivien on noudatettava tekoälyn etiikkaa. Kuten tässä on aiemmin korostettu, tekoälyn suunnittelu ja toteuttaminen vaatii kylän, ja sitä varten koko kylän on oltava perehtynyt tekoälyn etiikkaan ja noudattaa niitä.

Olen myös hiljattain tutkinut AI Bill of Rights joka on virallinen otsikko Yhdysvaltain hallituksen viralliselle asiakirjalle nimeltä "Tekoälyn Bill of Rights: Making Automated Systems Work for the American People", joka oli tulos Office of Science and Technology Policyn (OSTP) vuoden kestäneestä työstä. ). OSTP on liittovaltion yksikkö, joka neuvoo Yhdysvaltain presidenttiä ja Yhdysvaltain toimeenpanovirastoa erilaisissa kansallisesti tärkeissä teknologisissa, tieteellisissä ja teknisissä näkökohdissa. Tässä mielessä voit sanoa, että tämä AI Bill of Rights on Yhdysvaltain nykyisen Valkoisen talon hyväksymä ja hyväksymä asiakirja.

AI Bill of Rightsissa on viisi Keystone-luokkaa:

  • Turvalliset ja tehokkaat järjestelmät
  • Algoritminen syrjinnän suoja
  • Tietosuoja
  • Huomio ja selitys
  • Inhimilliset vaihtoehdot, harkinta ja varavaihtoehto

Olen tarkastanut nuo ohjeet huolellisesti, katso linkki tähän.

Nyt kun olen luonut hyödyllisen perustan näille aiheeseen liittyville tekoälyn etiikkaa ja tekoälylakia koskeville aiheille, olemme valmiita hyppäämään äskettäin julkaistuun ACM:n lausuntoon vastuullisten algoritmisten järjestelmien periaatteista (muuten, koska asiakirjan otsikko viittaa vastuullinen algoritmiset järjestelmät, sinun kannattaa ehkä katsoa arviotani siitä, mistä puhuminen tarkoittaa Luotettava tekoälyKatso linkki tähän).

Valmistaudu matkalle näiden uusimpien tekoälyn eettisten periaatteiden pariin.

Kaivautuu tarkasti ACM:n julistamiin tekoälyn eettisiin ohjeisiin

ACM:n julistus eettisestä tekoälystä koostuu seuraavista yhdeksästä kulmakivestä:

  • Legitiimiys ja pätevyys
  • Minimoi haitat
  • Turvallisuus ja yksityisyys
  • Läpinäkyvyys
  • Tulkittavuus ja selitettävyys
  • ylläpidettävyys
  • Kilpaitettavuus ja auditoitavuus
  • Vastuullisuus ja vastuu
  • Ympäristövaikutusten rajoittaminen

Jos vertaat tätä viimeisintä sarjaa muihin varsinkin saatavilla oleviin sarjoihin, niiden välillä on paljon samankaltaisuutta tai vastaavia vastaavuuksia.

Toisaalta voit pitää sen hyvänä merkkinä.

Voimme yleensä toivoa, että monet tekoälyn eettiset periaatteet, jotka leijuvat ympärillä, yhdistyvät kohti samaa yleistä kattavuutta. Kun näkee, että yksi sarja on jossain määrin verrattavissa toiseen sarjaan, saat näennäisen varmuuden siitä, että nämä sarjat ovat samalla pallokentällä eivätkä jotenkin hämmentävällä vasemmalla kentällä.

Jotkut voivat valittaa siitä, että nämä eri joukot näyttävät olevan suurin piirtein samoja, mikä sitten mahdollisesti aiheuttaa hämmennystä tai ainakin hämmennystä, koska meillä ei pitäisi olla useita näennäisesti päällekkäisiä luetteloita. Eikö luetteloa voi olla vain yksi? Ongelmana on tietysti se, että ei ole yksinkertaista tapaa saada kaikki tällaiset luettelot yhdenmukaisiksi täsmälleen samoiksi. Eri ryhmät ja eri tahot ovat lähestyneet tätä eri tavoin. Hyvä uutinen on, että he melkein kaikki ovat päässeet samaan yleiseen johtopäätökseen. Voimme olla helpottuneita, että sarjoissa ei ole suuria eroja, mikä ehkä tekisi meidät levottomaksi, jos yleistä yksimielisyyttä ei olisi.

Vastustaja saattaa kehottaa, että näiden luetteloiden yhteisyys on hämmentävää, väittäen, että ehkä ryhmäajattelu on meneillään. Ehkä kaikki nämä erilaiset ryhmät ajattelevat samalla tavalla eivätkä pysty katsomaan normaalia pidemmälle. Me kaikki olemme joutumassa identtiseen ansaan. Listat näennäisesti ankkuroivat ajatteluamme, emmekä pysty näkemään oman nenämme pidemmälle.

Nenämme pidemmälle katsominen on epäilemättä arvokas syy.

Olen toki avoin kuulemaan, mitä vastustajilla on sanottavaa. Joskus he saavat tuulen jostakin, jolla on Titaanimainen matkalla kohti jättimäistä jäävuorta. Voisimme käyttää muutamia kotkansilmäpaikkoja. Mutta näiden tekoälyn eettisten ohjeiden osalta vastustajat eivät ole selkeästi ilmaisseet mitään, mikä näyttäisi selvästi heikentävän tai herättävän huolta siitä, että kyseessä on kohtuuton yhteisyys. Mielestäni meillä menee hyvin.

Tässä ACM-sarjassa on muutamia erityisen merkittäviä tai erottuvia kohtia, jotka mielestäni ovat erityisen huomionarvoisia.

Ensinnäkin pidän huipputason sanamuodosta, joka on hieman erilainen kuin normaali.

Esimerkiksi viittaamalla legitiimiys ja pätevyys (ensimmäinen luettelomerkitty kohta) herättää vaikutelman tekoälyyn liittyvien suunnittelijoiden ja johtamisosaamisen tärkeydestä. Lisäksi oikeutus päälause johtaa meidät tekoälyn etiikkaan ja AI-lakimaailma. Sanon tämän, koska monet tekoälyn eettisistä säännöistä keskittyvät lähes kokonaan eettisiin seurauksiin, mutta näyttävät jättävän huomiotta myös oikeudelliset seuraukset. Lakialalla eettisiä näkökohtia mainostetaan usein "pehmeäksi oikeudeksi", kun taas kirjojen lakeja pidetään "kovina laeina" (eli niillä on oikeustuomioistuinten painoarvo).

Kuuluisa juristi Earl Warren lausui yhden kaikkien aikojen suosikkisanoistani: "Sivistyneessä elämässä laki kelluu etiikan meressä."

Meidän on varmistettava, että tekoälyn eettiset ohjeet kattavat ja korostavat myös asioiden tiukkaa puolta, kuten tekoälylakien laadinnassa, säätämisessä ja täytäntöönpanossa.

Toiseksi arvostan sitä, että luettelo sisältää kiistattavuus ja auditoitavuus.

Olen toistuvasti kirjoittanut siitä, kuinka arvokasta on mahdollisuus kilpailla tai nostaa punainen lippu, kun olet tekoälyjärjestelmän alainen, katso linkki tähän. Lisäksi tulemme näkemään yhä useammin uusia lakeja, jotka pakottavat tekoälyjärjestelmiä tarkastamaan, mistä olen keskustellut pitkään New York Cityn (NYC) laista, joka koskee työntekijöiden palkkaamiseen ja ylennyksiin käytettävien tekoälyjärjestelmien tarkastusta. linkki tähän. Valitettavasti ja kuten olen avoimesti kritisoinut NYC:n uutta lakia, jos nämä tarkastettavuutta koskevat lait ovat virheellisiä, ne todennäköisesti luovat enemmän ongelmia kuin ratkaisevat.

Kolmanneksi on asteittain heräämässä siihen, että tekoäly voi lisätä kestävyysongelmia, ja olen iloinen nähdessäni, että ympäristön aihe sai huipputason laskutuksen näissä tekoälyn eettisissä ohjeissa (katso luettelon viimeinen kohta).

Tekoälyjärjestelmän luominen voi yksinään kuluttaa paljon laskentaresursseja. Nämä laskentaresurssit voivat suoraan tai epäsuorasti olla kestävyyden kaappaajia. Tekoälyn tarjoamia etuja verrattuna tekoälyn mukana tuleviin kustannuksiin on harkittava kompromissi. Viimeinen ACM:n luettelomerkityistä kohdista panee merkille tekoälyn mukanaan tuomat kestävyys- ja ympäristönäkökohdat. Katso tekoälyyn liittyvistä hiilijalanjälkiasioista kertomani kattavuus linkki tähän.

Nyt kun olemme tarkastelleet ACM:n tekoälyn eettisten ohjeiden luetteloa taivaisiin, laitamme seuraavaksi varpaamme syvemmälle vesille.

Tässä ovat viralliset kuvaukset jokaisesta korkean tason tekoälyn eettisistä ohjeista (lainattu virallisesta lausunnosta):

1. "Legitiimiys ja pätevyys: Algoritmisten järjestelmien suunnittelijoilla tulee olla hallintaosaaminen ja nimenomainen valtuutus rakentaa ja ottaa käyttöön tällaisia ​​järjestelmiä. Heillä on myös oltava asiantuntemusta sovellusalalta, tieteellinen perusta järjestelmien aiotulle käytölle, ja sidosryhmät, joihin järjestelmä vaikuttaa, pitävät heitä laajalti sosiaalisesti legitiiminä. Oikeudelliset ja eettiset arvioinnit on suoritettava sen varmistamiseksi, että järjestelmien aiheuttamat riskit ovat oikeassa suhteessa käsiteltäviin ongelmiin ja että kaikki asiaankuuluvat sidosryhmät ymmärtävät kaikki hyödyt ja haitat.

2. "Haittojen minimoiminen: Algoritmisten järjestelmien johtajien, suunnittelijoiden, kehittäjien, käyttäjien ja muiden sidosryhmien tulee olla tietoisia niiden suunnitteluun, toteutukseen ja käyttöön liittyvistä mahdollisista virheistä ja harhoista sekä mahdollisista haitoista, joita järjestelmä voi aiheuttaa yksilöille ja yhteiskunnalle. Organisaatioiden tulee rutiininomaisesti tehdä vaikutustenarviointeja käyttämilleen järjestelmille selvittääkseen, voiko järjestelmä aiheuttaa haittaa, erityisesti syrjivää haittaa, ja soveltaa asianmukaisia ​​lievennyksiä. Heidän tulisi mahdollisuuksien mukaan oppia todellisen suorituskyvyn mittareista, ei pelkästään aiempien päätösten malleista, jotka ovat saattaneet olla syrjiviä."

3. "Turvallisuus ja yksityisyys: Haitallisten osapuolten aiheuttamaa riskiä voidaan pienentää ottamalla käyttöön turvallisuuden ja tietosuojan parhaita käytäntöjä järjestelmien elinkaaren kaikissa vaiheissa, mukaan lukien vankat hallintalaitteet, jotka vähentävät algoritmisten järjestelmien yhteydessä syntyviä uusia haavoittuvuuksia."

4. "Avoimuus: Järjestelmäkehittäjiä kehotetaan dokumentoimaan selkeästi tapa, jolla tietyt tietojoukot, muuttujat ja mallit valittiin kehitystä, koulutusta, validointia ja testausta varten, sekä erityistoimenpiteet, joita käytettiin tietojen ja tulosteen laadun takaamiseen. Järjestelmien tulee ilmoittaa luottamuksensa jokaisessa tulosteessa ja ihmisten tulee puuttua asiaan, kun luottamus on alhainen. Kehittäjien tulee myös dokumentoida lähestymistavat, joita käytettiin mahdollisten harhojen tutkimiseen. Sellaisten järjestelmien osalta, joilla on kriittinen vaikutus elämään ja hyvinvointiin, olisi vaadittava riippumattomia todentamis- ja validointimenettelyjä. Tietojen ja mallien julkinen tarkastelu tarjoaa parhaan mahdollisen korjauksen. Kehittäjien tulisi siten helpottaa kolmannen osapuolen testausta yleisen edun vuoksi."

5. "Tulkittavuus ja selitettävyys: Algoritmisten järjestelmien johtajia rohkaistaan ​​tuottamaan tietoa sekä menettelyistä, joita käytetyt algoritmit noudattavat (tulkittavuus) että erityisistä päätöksistään, joita he tekevät (selitettävyys). Selittävyys voi olla aivan yhtä tärkeää kuin tarkkuus, erityisesti yleisissä poliittisissa yhteyksissä tai missä tahansa ympäristössä, jossa ollaan huolissaan siitä, kuinka algoritmeja voidaan vääristää hyödyttämään yhtä ryhmää toisten edelle ilman tunnustusta. On tärkeää erottaa selitykset ja jälkikäteen tehdyt rationalisoinnit, jotka eivät heijasta todisteita tai päätöksentekoprosessia, jota on käytetty selitettävän johtopäätöksen tekemiseen.

6. "Ylläpidettävyys: Todisteita kaikkien algoritmisten järjestelmien toimivuudesta tulisi kerätä niiden elinkaaren ajalta, mukaan lukien järjestelmävaatimusten dokumentointi, muutosten suunnittelu tai toteutus, testitapaukset ja tulokset sekä loki löydetyistä ja korjatuista virheistä. Asianmukainen huolto saattaa edellyttää koulutusjärjestelmien uudelleenkoulutusta uusilla koulutustiedoilla ja/tai käytettyjen mallien vaihtamista."

7. "Kiistattavuus ja tarkastettavuus: Sääntelyviranomaisten olisi rohkaistava ottamaan käyttöön mekanismeja, joiden avulla yksilöt ja ryhmät voivat kyseenalaistaa tuloksia ja hakea hyvitystä algoritmisesti perusteltujen päätösten aiheuttamista haittavaikutuksista. Johtajien tulee varmistaa, että tiedot, mallit, algoritmit ja päätökset tallennetaan, jotta ne voidaan tarkastaa ja tuloksia voidaan toistaa tapauksissa, joissa epäillään tai väitetään haittaa. Auditointistrategiat tulisi julkistaa, jotta yksityishenkilöt, yleisen edun mukaiset organisaatiot ja tutkijat voivat arvioida ja suositella parannuksia.

8. "Vastuullisuus ja vastuullisuus: Julkisten ja yksityisten elinten olisi oltava vastuussa käyttämiensä algoritmien tekemistä päätöksistä, vaikka ei olisikaan mahdollista selittää yksityiskohtaisesti, kuinka kyseiset algoritmit tuottivat tuloksensa. Tällaisten elinten tulisi olla vastuussa kokonaisista järjestelmistä sellaisina kuin ne on otettu käyttöön niiden erityisissä yhteyksissä, ei vain yksittäisistä osista, jotka muodostavat tietyn järjestelmän. Kun automaattisissa järjestelmissä havaitaan ongelmia, kyseisten järjestelmien käyttöönotosta vastaavien organisaatioiden tulee dokumentoida erityistoimenpiteet, joita ne toteuttavat ongelman korjaamiseksi ja missä olosuhteissa tällaisten tekniikoiden käyttö tulisi keskeyttää tai lopettaa."

9. "Ympäristövaikutusten rajoittaminen: Algoritmiset järjestelmät tulisi suunnitella raportoimaan arvioita ympäristövaikutuksista, mukaan lukien hiilidioksidipäästöt sekä koulutuksesta että operatiivisista laskelmista. Tekoälyjärjestelmät tulee suunnitella varmistamaan, että niiden hiilidioksidipäästöt ovat kohtuullisia, kun otetaan huomioon niiden käyttöympäristön edellyttämä tarkkuus."

Luotan siihen, että luet jokaisen näistä keskeisistä tekoälyn eettisistä ohjeista huolellisen ja entisellään. Ole hyvä ja ota ne sydämeesi.

Yhteenveto

ACM:n lausunnossa on hienovarainen, mutta yhtä tärkeä osa, jonka uskon monien saattavan vahingossa unohtaa. Haluan kiinnittää tämän huomionne.

Viittaan osaan, joka käsittelee tuskallista ongelmaa, joka liittyy tekoälyn eettisiin ohjeisiin liittyviin kompromisseihin. Useimmat ihmiset nyökkäävät usein mielettömästi eettisiä tekoälyperiaatteita lukiessaan ja olettavat, että kaikki käskyt ovat painoltaan yhtä suuret, ja kaikille käskyille annetaan aina sama optimaalinen kunnioituksen ja arvon ilme.

Ei todellisessa maailmassa.

Kun kumi kohtaa tien, mikä tahansa tekoäly, jolla on hivenenkin monimutkaisuus, testaa ilkeästi tekoälyn eettisiä sääntöjä sen suhteen, ovatko jotkin elementit riittävän saavutettavissa yli joidenkin muiden periaatteiden. Ymmärrän, että saatat huutaa äänekkäästi, että kaiken tekoälyn on täytettävä kaikki tekoälyn eettiset ohjeet, mutta tämä ei ole erityisen realistista. Jos haluat ottaa tämän kannan, uskallan sanoa, että sinun on todennäköisesti kehotettava useimpia tai melkein kaikkia tekoälyn tekijöitä ja käyttäjiä sulkemaan kauppa ja luopumaan tekoälystä kokonaan.

On tehtävä kompromisseja, jotta tekoäly saadaan ulos ovesta. Tästä huolimatta en kannata tekoälyn eettisiä sääntöjä rikkovien kulmien leikkaamista enkä tarkoita, että niiden tulisi rikkoa tekoälylakeja. Tietty vähimmäisvaatimus on täytettävä, ja jonka ylittymiseen on pyrittävä enemmän. Loppujen lopuksi tasapaino on arvioitava huolellisesti. Tämä tasapainottaminen on tehtävä tietoisesti, nimenomaisesti, laillisesti ja tekoälyn etiikkaa vilpittömänä ja vilpittömänä uskona (saatat haluta nähdä, kuinka yritykset käyttävät tekoälyn eettisiä lautakuntia yrittääkseen saavuttaa tämän juhlallisen lähestymistavan, ks. linkki tähän).

Tässä on joitain luettelomerkittyjä kohtia, jotka ACM-julistuksessa mainitaan kompromissien monimutkaisuudesta (lainattu virallisesta asiakirjasta):

  • "Ratkaisujen tulee olla oikeassa suhteessa ratkaistavaan ongelmaan, vaikka se vaikuttaisikin monimutkaisuuteen tai kustannuksiin (esim. julkisen videovalvonnan käytön kieltäminen yksinkertaisessa ennustetehtävässä)."
  • "Laaja valikoima suorituskykymittareita tulisi harkita, ja niitä voidaan painottaa eri tavalla sovellusalueen mukaan. Esimerkiksi joissakin terveydenhuollon sovelluksissa väärien negatiivisten tulosten vaikutukset voivat olla paljon pahemmat kuin väärien positiivisten, kun taas rikosoikeudessa väärien positiivisten tulosten (esim. viattoman henkilön vangitseminen) seuraukset voivat olla paljon pahemmat kuin väärien negatiivisten tulosten. Halutuin käyttöjärjestelmän asennus on harvoin se, jonka tarkkuus on suurin."
  • "Huolet yksityisyydestä, liikesalaisuuksien suojaamisesta tai analytiikan paljastamisesta, jotka saattavat antaa haitallisten toimijoiden pelata järjestelmää, voivat oikeuttaa pääsyn rajoittamisen päteviin henkilöihin, mutta niitä ei pitäisi käyttää oikeuttamaan kolmannen osapuolen valvonnan rajoittamista tai vapauttamaan kehittäjät velvollisuudesta. tunnistaa ja korjata virheet."
  • "Läpinäkyvyys on yhdistettävä vastuullisuusprosessien kanssa, jotta algoritmijärjestelmän vaikuttamat sidosryhmät voivat hakea mielekästä korvausta tehdyistä haitoista. Avoimuutta ei pidä käyttää järjestelmän legitimoimiseen tai vastuun siirtämiseen muille osapuolille."
  • ”Kun järjestelmän vaikutus on suuri, selitettävissä oleva järjestelmä voi olla parempi. Monissa tapauksissa selitettävyyden ja tarkkuuden välillä ei ole kompromissia. Joissakin yhteyksissä väärät selitykset voivat kuitenkin olla jopa pahempia kuin ei selitystä (esim. terveydenhuoltojärjestelmissä oire voi vastata monia mahdollisia sairauksia, ei vain yhtä).

Ne, jotka kehittävät tai käyttävät tekoälyä, eivät välttämättä ymmärrä kohtaamiaan kompromisseja. Yrityksen huippujohtajat saattavat naiivisti olettaa, että tekoäly täyttää kaikki tekoälyn eettiset periaatteet. He joko uskovat tämän, koska he ovat tietämättömiä tekoälystä, tai he haluavat uskoa tämän ja tekevät ehkä silmäniskun ottaakseen tekoälyn helposti käyttöön.

Todennäköisyys on, että jos kompromisseja ei käsitellä perusteellisesti ja avoimesti, seurauksena on tekoäly, joka tuottaa vahinkoa. Nämä vahingot puolestaan ​​todennäköisesti avaavat yrityksen mahdollisesti laajamittaisille vastuille. Tämän lisäksi tavanomaiset lait voivat koskea tekoälyyn liittyviä mahdollisia rikollisia tekoja, samoin kuin uudemmat tekoälyyn keskittyvät lait, jotka koskevat myös tätä. Tonni tiiliä odottaa niiden pään yläpuolella, jotka luulevat voivansa selvitä kompromisseista tai jotka eivät ole täysin tietoisia kompromissien olemassaolosta (murskaava oivallus osuu väistämättä heidän päälleen).

Annan toistaiseksi viimeisen sanan tästä aiheesta ACM-lausunnon päätelmälle, koska mielestäni se tekee vankkaa työtä selittääkseen, mitä näillä eettisillä tekoälysäännöillä makroskooppisesti pyritään tuomaan esiin:

  • ”Edelliset suositukset keskittyvät algoritmisten järjestelmien vastuulliseen suunnitteluun, kehittämiseen ja käyttöön; vastuu on määrättävä lain ja yleisen järjestyksen mukaan. Algoritmisten järjestelmien kasvava teho ja niiden käyttö elämänkriittisissä ja seurannaissovelluksissa tarkoittaa, että niiden käytössä on oltava erittäin tarkkana. Nämä yhdeksän instrumentaalista periaatetta on tarkoitettu inspiroimaan keskustelujen käynnistämisessä, tutkimuksen käynnistämisessä ja hallintomenetelmien kehittämisessä, jotta ne hyödyttävät laajaa käyttäjäkuntaa ja edistävät samalla luotettavuutta, turvallisuutta ja vastuullisuutta. Loppujen lopuksi se on erityinen konteksti, joka määrittelee algoritmisen järjestelmän oikean suunnittelun ja käytön yhteistyössä kaikkien vaikutuspiiriin kuuluvien sidosryhmien edustajien kanssa” (lainattu virallisesta asiakirjasta).

Kuten viisauden sanat viisaasti kertovat meille, tuhannen mailin matka alkaa ensimmäisestä askeleesta.

Pyydän sinua tutustumaan tekoälyn etiikkaan ja tekoälylakiin, ottamaan minkä tahansa ensimmäisen askeleen, joka saa sinut vauhtiin, ja sitten auttamaan näiden tärkeiden ponnistelujen jatkamisessa. Kauneus on siinä, että olemme vielä lapsenkengissämme selvittämässä, kuinka hallita ja yhteiskunnallisesti selviytyä tekoälystä, joten pääset pohjakerrokseen ja ponnisteluillasi voidaan todistettavasti muokata tulevaisuuttasi ja tulevaisuuttasi meille kaikille.

Tekoälymatka on juuri alkanut ja tärkeät ensimmäiset askeleet ovat vielä kesken.

Lähde: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- ammattiyhdistys-the-acm/