3 syytä, miksi organisaatiosi tarvitsee ulkoisia algoritmien arvioijia

Kirjailija: Satta Sarmah-Hightower

Yritysjohtajat puristavat kaiken arvon tekoälystä (AI). Vuoden 2021 KPMG:n tutkimus toteaa Suurin osa valtionhallinnon, teollisuustuotannon, rahoituspalvelujen, vähittäiskaupan, biotieteen ja terveydenhuollon yritysten johtajista sanoo, että tekoäly on vähintään kohtalaisen toimiva heidän organisaatioissaan. Tutkimuksen mukaan puolet vastaajista sanoo, että heidän organisaationsa vauhditti tekoälyn käyttöönottoa vastauksena Covid-19-pandemiaan. Organisaatioissa, joissa tekoäly on otettu käyttöön, ainakin puolet sanoo, että tekniikka on ylittänyt odotukset.

Tekoälyalgoritmit ovat yhä enemmän vastuussa monista nykypäivän vuorovaikutuksista ja innovaatioista – personoiduista tuotesuositukset ja asiakaspalvelu kokemuksia pankeille lainapäätökset ja jopa poliisin vastaus.

Kaikista tarjoamistaan ​​eduista huolimatta tekoälyalgoritmeihin liittyy suuria riskejä, jos niitä ei valvota ja arvioida tehokkaasti joustavuuden, oikeudenmukaisuuden, selitettävyyden ja eheyden suhteen. Auttaakseen yritysjohtajia tekoälyn seurannassa ja arvioinnissa edellä viitattu tutkimus osoittaa, että a yhä useammat yritysjohtajat haluavat hallituksen säätelevän tekoälyä, jotta organisaatiot voivat investoida oikeaan teknologiaan ja liiketoimintaprosesseihin. Tarvittavan tuen ja valvonnan saamiseksi on viisasta harkita tällaisten palvelujen tarjoamisesta kokemusta omaavan palveluntarjoajan tarjoamia ulkoisia arviointeja. Tässä on kolme syytä.

1. Algoritmit ovat "mustia laatikoita"

Tekoälyalgoritmit – jotka oppivat tiedosta ongelmien ratkaisemiseksi ja tehtävien optimoimiseksi – tekevät järjestelmistä älykkäämpiä, jolloin ne voivat kerätä ja tuottaa oivalluksia paljon nopeammin kuin ihmiset koskaan pystyvät.

Jotkut sidosryhmät pitävät näitä algoritmeja kuitenkin "mustina laatikoina", selittää Drew Rosen, johtavan asiantuntijapalveluyrityksen KPMG:n tilintarkastusjohtaja. Erityisesti tietyt sidosryhmät eivät ehkä ymmärrä, miten algoritmi päätyi tiettyyn päätökseen, eivätkä siksi välttämättä ole varmoja päätöksen oikeudenmukaisuudesta tai tarkkuudesta.

"Algoritmista poimitut tulokset voivat olla alttiita harhaan ja tulosten väärintulkintaan", Rosen sanoo. "Se voi myös johtaa riskeihin yhteisölle, kun ne hyödyntävät näitä tuloksia ja jakavat [ne] yleisön ja sidosryhmiensä kanssa."

Esimerkiksi virheellistä dataa käyttävä algoritmi on parhaimmillaan tehoton – ja pahimmillaan haitallinen. Miltä se mahtaa näyttää käytännössä? Harkitse tekoälypohjaista chatbotia, joka antaa käyttäjille väärät tilitiedot, tai automaattista kielenkäännöstyökalua, joka kääntää tekstiä virheellisesti. Molemmat tapaukset voivat johtaa vakaviin virheisiin tai väärintulkintoihin viranomaisille tai yrityksille sekä näiden algoritmien tekemiin päätöksiin luottaville toimijoille ja asiakkaille.

Toinen mustan laatikon ongelman aiheuttaja on se, että tekoälymallien kehitykseen tunkeutuu luontainen harha, mikä saattaa aiheuttaa puolueellista päätöksentekoa. Esimerkiksi luotonantajat käyttävät yhä useammin tekoälyä ennustaakseen potentiaalisten lainanottajien luottokelpoisuutta tehdäkseen lainapäätöksiä. Riski voi kuitenkin syntyä, kun tekoälyn tärkeimmät tiedot, kuten mahdollisen lainanottajan luottopisteet, on aineellinen virhe, jolloin kyseisiltä henkilöiltä evätään lainat.

Tämä korostaa tarvetta ulkopuoliselle arvioijalle, joka voi toimia puolueettomana arvioijana ja antaa kohdistetun arvion hyväksyttyjen kriteerien perusteella historiallisten tietojen ja olettamusten merkityksellisyydestä ja luotettavuudesta, jotka vaikuttavat algoritmiin.

2. Sidosryhmät ja sääntelyviranomaiset vaativat avoimuutta

Vuonna 2022 vastuulliselle tekoälylle ei ollut voimassa olevia raportointivaatimuksia. Rosen kuitenkin sanoo, "samalla tavalla kuin hallintoelimet ottivat käyttöön ESG-säädöksen [ympäristö-, sosiaali- ja hallintotapa] raportoida tietyistä ESG-mittareista, on vain ajan kysymys, että näemme lisää sääntelyä koskevia raportointivaatimuksia vastuulliselle tekoälylle."

Itse asiassa 1. tammikuuta 2023 alkaen New Yorkin Paikallinen laki 144 edellyttää, että automaattiselle työllistämispäätöstyökalulle tehdään puolueellisuustarkastus ennen sen käyttöä.

Ja liittovaltion tasolla National Artificial Intelligence Initiative Act 2020-joka perustuu a 2019 toimeenpanomääräys— keskittyy tekoälyn teknisiin standardeihin ja ohjeisiin. Lisäksi, Algoritminen vastuuvelvollisuuslaki saattaa vaatia vaikutustenarviointeja automaattisista päätösjärjestelmistä ja laajennettuja kriittisiä päätöksentekoprosesseja. Ja ulkomailla, Tekoälylaki on ehdotettu, ja se tarjoaa kattavan sääntelykehyksen, jossa on erityiset tavoitteet tekoälyn turvallisuuteen, vaatimustenmukaisuuteen, hallintoon ja luotettavuuteen.

Näiden muutosten myötä organisaatiot ovat hallintomikroskoopin alla. Algoritmin arvioija voi laatia sellaisia ​​raportteja, jotka käsittelevät sääntelyvaatimuksia ja lisäävät sidosryhmien avoimuutta samalla välttäen riskiä siitä, että sidosryhmät tulkitsevat väärin tai harhaan arvioinnin tulosten perusteella.

3. Yritykset hyötyvät pitkän aikavälin riskienhallinnasta

Steve Camara, KPMG:n teknologiavarmistuskäytännön kumppani, ennustaa tekoälyinvestointien kasvavan edelleen, kun kokonaisuudet automatisoivat prosesseja, kehittävät asiakaskokemusta parantavia innovaatioita ja jakavat tekoälykehitystä eri toimintoihin. Pysyäkseen kilpailukykyisinä ja kannattavina organisaatiot tarvitsevat tehokkaita valvontatoimia, jotka eivät ainoastaan ​​korjaa tekoälyn välittömiä puutteita, vaan myös vähentävät tekoälyyn perustuvaan liiketoimintaan liittyviä pitkän aikavälin riskejä.

Tässä ulkopuoliset arvioijat astuvat luotettuna ja taitavana resurssina. Kun organisaatiot omaksuvat yhä enemmän tekoälyn eheyttä liiketoiminnan mahdollistajana, kumppanuudesta voi tulla vähemmän ad hoc -palvelua ja enemmän johdonmukaista yhteistyötä, Camara selittää.

"Näemme tien eteenpäin, jossa tarvitaan jatkuvaa suhdetta tekoälyä jatkuvasti kehittävien ja operatiivisten organisaatioiden ja objektiivisen ulkopuolisen arvioijan välillä", hän sanoo.

Katsaus seuraavaan

Tulevaisuudessa organisaatiot saattavat hyödyntää ulkoisia arviointeja enemmän syklisesti, kun ne kehittävät uusia malleja, ottavat vastaan ​​uusia tietolähteitä, integroivat kolmannen osapuolen toimittajaratkaisuja tai navigoivat uusissa vaatimustenmukaisuusvaatimuksissa.

Kun ylimääräisiä sääntely- ja vaatimustenmukaisuusvaatimuksia vaaditaan, ulkopuoliset arvioijat voivat tarjota palveluja, joilla arvioidaan suoraan, kuinka hyvin organisaatio on ottanut tai käyttänyt tekoälyä näihin vaatimuksiin nähden. Nämä arvioijat olisivat silloin parhaiten valmiita jakamaan arviointitulokset selkeällä ja johdonmukaisella tavalla.

Jotta organisaatio voisi hyödyntää teknologiaa ja suojautua sen rajoituksilta, sen on etsittävä ulkopuolisia arvioijia toimittamaan raportteja, joihin se voi sitten luottaa osoittaakseen suurempaa läpinäkyvyyttä algoritmien käyttöönotossa. Sieltä sekä organisaatio että sidosryhmät voivat ymmärtää paremmin tekoälyn voimaa – ja sen rajoituksia.

Lähde: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/