AI-hype Cry Wolf -hetki on hyödytön

Vaikka tutkin ihmiskunnan lopun skenaarioita, uskon, että "asiantuntijakirje", jossa ehdotetaan 6 kuukauden tekoälyn moratoriota, tai uudempi lausunto, jonka mukaan tekoälyriski on pandemian ja ydinvoiman riskin tasolla, ovat molemmat liioiteltuja. Vielä villimpi mielipide, että meidän on suljettava tekoäly, on vastuuton. Kaikkien huolien on oltava suhteessa kohtaamiimme riskeihin. Tällä hetkellä emme ole välittömässä tekoälyn vaarassa.

Nykyiset tekoälyt eivät pysty valloittamaan yhteiskuntaa. Heillä ei ole tunteita, eivätkä he ansaitse suojelua ihmiselämän tavoin. He eivät ole superälykkäitä eivätkä ylitä ihmisiä millään yleisellä tavalla. Itse asiassa he eivät ajattele ollenkaan. Tällä hetkellä tekoälyt ovat erittäin hyviä tietyissä tehtävissä, kuten laskennassa ja ennustamisessa, jos niille syötetään runsaasti tietoa. Se ei ole huolestuttavaa, nämä ovat ominaisuuksia, jotka näillä järjestelmillä on suunniteltu. Tekoälyjen lupaukset sisältävät syövän ratkaisemisen, teollisen tuotannon muuttamisen, tulevaisuuden skenaarioiden mallintamisen ja ympäristöhaasteiden hallinnan. Tästä huolimatta on olemassa oikeutettuja syitä kritisoida nykyisiä tekoälyjä resurssien käytöstä, läpinäkyvyydestä, puolueellisuudesta, kyberturvallisuudesta ja sen tulevista vaikutuksista työllisyyteen.

Tekoälyt ovat laskennallisesti kalliita, mikä tarkoittaa, että ne ovat niukan, fossiilisen energian suurta tuhlausta. Tähän on puututtava välittömästi. Mutta se ei ole eksistentiaalikysymys, vaan kysymys resurssien järkevästä käytöstä. Se, että suuriin ja tehottomiin tietomalleihin tukeutuvista tekoälyistä on tulossa liian kalliita tiedeyhteisön tai hallituksen jäljitettäväksi ja tutkittavaksi, on todellinen ongelma. Mutta se on heti korjattavissa. Akateemisten korkeakoulujen tai hallitusten konsortiot voisivat toimia yhdessä ja jakaa laskentaresursseja samalla tavalla kuin ne ovat tehneet supertietokoneissa.

Large Language Models (LLM) ovat tekoälymalleja, jotka voivat luoda luonnollisen kielen tekstejä suurista tietomääristä. Yksi ongelma siinä on, että nämä tekstit ovat suoraan peräisin muiden ihmisten rehellisistä älyllisistä panoksista. Itse asiassa ne on varastettu. Erityisesti generatiivinen tekoäly yhdistää uudelleen sekä kuluttaja- ja organisaatiodataa että luovaa sisältöä rikkoen räikeästi tekijänoikeuksia. Tämä on vakavaa, mutta ei eksistentiaalista, ja sitä paitsi EU, Hollywoodin lobbaajat ja "big five" -kirjankustantajat ovat jo mukana. Odota, että tämä hidastaa tekoälyn vauhtia. Nykyisellä vauhdilla tekoälyistä loppuu hyvät harjoitustiedot hyvissä ajoin ennen kuin se lähestyy tuntokykyä.

Algoritmeilla, joita jo käytetään verojemme laskemiseen, verkkosyötteiden valitsemiseen tai ihmisten vankilaan, on silmiinpistävää läpinäkyvyyden puute. Näin on kuitenkin ollut vuosia, eikä sillä ole mitään tekemistä viimeisimmän tekoälykehityksen kanssa. AI-harha on ominaisuus eikä vika. Stereotypiointi on itse asiassa tärkein lähestymistapa, jonka kautta tällaiset mallit toimivat. Paitsi että ennakkoluulo on piilotettu läpäisemättömiin kerroksiin konepäättelyä, joka on ihmisten käsittämätön, olivatpa asiantuntijat tai eivät. Meidän pitäisi kyseenalaistaa tällaisia ​​järjestelmiä kehittäneiden kehittäjien viisaus, ei heidän luomansa järjestelmän kyky, joka on itsestäänselvyys. Järjestelmät ovat harvoin parempia kuin niiden rakentajien tai johtajien viisaus tai aikomukset.

Tekoälyn harjoittelutiedot heijastavat yhteiskunnassa vallitsevia ennakkoluuloja, joista tiedot kerättiin. Huonojen harjoitustietojen uudelleenkäyttö on huolestuttava käytäntö, joka saastuttaa tekoälymalleja jo valmiiksi. Nykyiset tekoälymenetelmät yksinkertaisesti vahvistavat harhaa päästäkseen nopeasti tulokseen. Tämä on kieltämättä päinvastoin kuin haluamme. Haluamme käyttää teknologiaa suojaamaan inhimillisiä virheitä. Konevirheistä huolehtiminen on ihmisälyn turhaa käyttöä.

Huolimatta "hermoverkko"-metaforasta, nykyiset tekoälyt eivät millään tavalla muistuta aivoja. Nykyiset tekoälyjärjestelmät eivät voi ajatella analogisesti ihmisten tavoin. Tämä on hyvä. Emme ehkä itse asiassa halua sellaista tekoälylinjausta, jota kiihkoilijat kannattavat ja yrittävät jäljitellä. Koneiden tulee olla erilaisia ​​kuin ihmiset. Näin voimme maksimoida toistemme vahvuudet. Ja kuinka voimme pitää koneet erillisinä ja erillään toisistaan. Koneilla ei pitäisi olla intressejä kohdistaa.

Tekoäly edustaa yhä enemmän merkittävää kyberturvallisuusuhkaa rikollisten ja vihamielisten valtioiden voimavarana. Kyberturvallisuus on kuitenkin kypsä ala, jolla on runsaasti asiantuntijoita, jotka ovat hyvin varusteltuja vastaamaan haasteeseen. Ei ole mitään syytä sulkea tekoälyä kyberturvallisuuspelkojen vuoksi.

Tekoälyn aiheuttama työllisyyden häiriintyminen on ollut poliittinen kysymys vuosia, ensin robottien, nyt ohjelmistopohjaisten tekoälyjärjestelmien kanssa. Tämä tarkoittaa, että hallitukset ovat valmiita käsittelemään sitä. MIT Work of The Future -tutkimuksessa havaittiin, että huoli robottien aiheuttamasta työttömyydestä on liioiteltu. Ihminen on aina löytänyt tapoja toimia ja tekee niin myös tulevaisuudessa. Muuttaako tekoäly tuotantoa? Se on jo tapahtumassa, mutta melko kontrolloidusti.

Tekoäly kärsii aika ajoin liioitelluista lupauksista nykyisestä toimivuudesta tai tulevasta laajuudesta. Ensimmäiset tekoälytalvet alkoivat vuosina 1974–1980, kun Yhdysvaltain hallitus veti rahoituksensa. Toinen oli vuosilta 1987–1993, kun kustannukset nousivat ja tekoäly ei lunastanut yleviä lupauksiaan.

Odottaessamme uusia paradigmoja, vuosina 2025–2030, tulemme todennäköisesti kolmanteen tekoälytalveen. Ainakin kuumaan tekoälykesään verrattuna meille luvataan. Syynä on se, että hypetystä huolimatta suuret kielimallit ovat saavuttamassa maksimaalisen käyttökelpoisuutensa kaikista edellä mainituista syistä, ja ne on lopulta korvattava laskennallisesti tyylikkäämmillä, läpinäkyvämillä lähestymistavoilla.

Yksi tällainen ehdokas on hyperdimensionaalinen laskenta, joka tekisi koneista järkeviä tehokkaammin, koska ne antavat koneille semanttisen ymmärryksen, kyvyn käsitellä merkitystä ja kontekstia todellisen tiedon takana. Tällä hetkellä tekoälyjärjestelmät eivät ymmärrä sanojen ja lauseiden välisiä suhteita, ne ovat yksinkertaisesti hyviä arvaamaan. Se on riittämätöntä. Tarvitsemme lopulta ruumiillistuneen tekoälyn, koska ajattelu on sidottu tilan havaintoon. Näin on ehdottomasti valmistuksessa, joka on erittäin fyysinen peli. Tarvitsemme myös tekoälyä, joka pystyy ihmisen muistin ominaisuuksiin, kuten priorisoimaan joidenkin tietojen etualalla ja taustalla muun tiedon perusteella. Unohtaminen on työkalu, jota ihmiset käyttävät abstraktiin ajatteluun, vanhentuneista organisaatiokäytännöistä siirtymiseen, päätösten tekemiseen ja hetkessä pysymiseen, eikä se ole vain virhe. Mikään kone ei vielä pysty siihen kovin hyvin.

Sillä välin meidän on säädeltävä, mutta ei tätä toista. Ja kun sääntelemme, meidän on parempi tehdä se hyvin. Tekoälyn huono sääntely todennäköisesti pahentaa tilannetta. Sääntelyviranomaisten herättäminen tähän haasteeseen voi olla hyödyllistä, mutta en ole varma, että nykyinen sääntelijöiden sukupolvi on valmis sellaisiin laajoihin muutoksiin, joita tarvittaisiin, jotta se onnistuisi hyvin. Se merkitsisi voimakkaiden yritysten (mahdollisesti kaikkien pörssiyhtiöiden) rajoittamista, tekoälyn käytön rajoittamista hallinnossa ja merkitsisi valtavia muutoksia kuluttajamarkkinoiden nykyiseen toimintaan. Pohjimmiltaan meidän olisi johdettava yhteiskunta uudelleen. Se ohjaisi meidät rappeutumaan muutama vuosikymmen aikaisemmin kuin saattaisimme toivoa. Tekoälyyn liittyvä läpinäkyvyyshaaste saattaa olla pelottavampi kuin ohjausmuuttujat, joista kaikki näyttävät olevan niin huolissaan, ei tietenkään siksi, että ne eivät liity toisiinsa.

Emme myöskään voi olla yhtä huolissaan joka kerta, kun tekoälyn vertailuarvo saavutetaan. Meidän täytyy säästää energiaamme todella suuria kaskadiriskin hetkiä varten. He tulevat, ja rehellisesti sanottuna emme ole valmiita. Kuvittelemani tulevaisuuden skenaariot (katso sukupuuttoskenaariot vuodelle 2075) sisältävät massiivisia tietomurtoja, jotka pitävät kokonaiset maat lukittuina omien prosessiensa ulkopuolelle kuukausien ajan. Olen myös huolissani tekoälyistä, joita rikollisryhmät tai valtion toimijat auttavat. Eniten olen huolissani tekoälyn, nanoteknologian, synteettisen biologian ja kvanttiteknologian yhdistelmistä – lähes näkymätöntä näennäistä orgaanista älykkyyttä, jonka kykyä ei tunneta, ehkä vain muutaman vuosikymmenen päässä, ja jotka tapahtuvat juuri silloin, kun ilmaston peräkkäiset vaikutukset kuluttavat maailmaa. muuttaa.

Nykyiset tekoälymallit eivät vielä toimi tarpeeksi hyvin ollakseen uhka ihmiskunnalle. Ennen kuin voimme harkita niiden sulkemista, tarvitsemme parempia tekoälyjä. Sen lisäksi tarvitsemme viisaampia kehittäjiä, herkistyneempiä kansalaisia ​​ja paremmin perillä olevia päätöksentekijöitä. Tarvitsemme myös konseptin MITEN säädellä tekoälyä. Mutta tämä voidaan tehdä hidastamatta mitään. Siitä tulee opettavainen matka kaikille. GPT 4:ää (2023) koskeva moratoriokirje on huutava suden hetki, jossa on vain vähän samankaltaisuutta ihmiskunnan tulevina vuosikymmeninä kohtaamien räjähdysmäisten riskien kanssa. Tekoälyriskin asettaminen pandemiariskin ja ydinriskin tasolle vuonna 2023 on ennenaikaista. Pääsemmekö perille? Kenties. Mutta suden itkemisellä on seurauksensa. Se imee happea tulevista keskusteluista todellisista peloista.

Lähde: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/