Tekoälyn vaarat, joista kukaan ei puhu

Vaikka ChatGPT saattaa näyttää vaarattomalta ja hyödylliseltä ilmaiselta työkalulta, tällä tekniikalla on potentiaalia muuttaa talouttamme ja yhteiskuntaamme sellaisena kuin sen tunnemme. Tämä johtaa meidät hälyttäviin ongelmiin – emmekä ehkä ole valmiita niihin. 

ChatGPT, tekoälyn (AI) käyttämä chatbot, valloitti maailman vuoden 2022 loppuun mennessä. Chatbot lupaa katkaista haun sellaisena kuin sen tunnemme. Ilmainen työkalu tarjoaa hyödyllisiä vastauksia käyttäjien sille antamien kehotteiden perusteella. 

Ja mikä saa Internetin hulluksi tekoäly-chatbot-järjestelmään, on se, että se ei anna vain hakukonetyökalun kaltaisia ​​vastauksia. ChatGPT voi luoda elokuvien ääriviivoja, kirjoittaa kokonaisia ​​koodeja ja ratkaista koodausongelmia, kirjoittaa kokonaisia ​​kirjoja, lauluja, runoja, käsikirjoituksia – tai mitä tahansa, mitä ajattelet – muutamassa minuutissa. 

Tämä tekniikka on vaikuttava, ja se ylitti miljoona käyttäjää vain viidessä päivässä julkaisunsa jälkeen. Huolimatta hämmästyttävästä suorituskyvystään OpenAI:n työkalu on herättänyt huolta tutkijoiden ja muiden alojen asiantuntijoiden keskuudessa. Tohtori Bret Weinstein, kirjailija ja entinen evoluutiobiologian professori, sanoi: "Emme ole valmiita ChatGPT:hen." 

Elon Musk, oli osa OpenAI:n alkuvaihetta ja yksi yhtiön perustajista. Mutta myöhemmin hän erosi laudalta. Hän puhui monta kertaa tekoälyteknologian vaaroista – hän sanoi, että rajoittamaton käyttö ja kehittäminen muodostavat merkittävän riskin ihmiskunnan olemassaololle. 

Miten se toimii?

ChatGPT on suuri kielikoulutettu tekoäly-chatbot-järjestelmä, jonka OpenAI julkaisi marraskuussa 2022. Rajatuottoinen yritys kehitti ChatGPT:n "turvallista ja hyödyllistä" tekoälyn käyttöä varten. Se pystyy vastaamaan melkein kaikkeen, mitä ajattelet – rap-kappaleista, taidekehotteista elokuvien käsikirjoituksiin ja esseisiin. 

Vaikka se näyttääkin luovalta kokonaisuudelta, joka tietää mitä sanoo, se ei ole sitä. Tekoäly-chatbot etsii tietoa Internetistä käyttämällä ennustavaa mallia massiivisesta datakeskuksesta. Samanlainen kuin Google ja useimmat hakukoneet. Sitten se on koulutettu ja altistettu tonnille datalle, jonka avulla tekoäly voi tulla erittäin hyvä ennustamaan sanajärjestystä siihen pisteeseen asti, että se voi koota uskomattoman pitkiä selityksiä. 

Voit esimerkiksi kysyä tietosanakirjakysymyksiä, kuten "Selitä Einsteinin kolme lakia". Tai tarkempia ja syvällisempiä kysymyksiä, kuten "Kirjoita 2,000 XNUMX sanan essee uskonnollisen etiikan ja vuorisaarnan etiikan risteyksestä." Ja en huijaa, tekstisi kirjoitetaan loistavasti sekunneissa. 

Samalla tavalla se on loistava ja vaikuttava; se on hälyttävää ja huolestuttavaa. "Ex Machina" -tyyppinen dystooppinen tulevaisuuden rikkoutuminen on mahdollista tekoälyn väärinkäytössä. Teslan ja SpaceX:n toimitusjohtaja ei ole vain varoittanut meitä, vaan monet asiantuntijat ovat myös antaneet hälytyksen. 

Tekoälyn vaarat

Tekoäly on epäilemättä vaikuttanut elämäämme, talousjärjestelmäämme ja yhteiskuntaamme. Jos uskot, että tekoäly on jotain uutta tai että näet sen vain futuristisissa scifi-elokuvissa, mieti kahdesti. Monet teknologiayritykset, kuten Netflix, Uber, Amazon ja Tesla, käyttävät tekoälyä tehostaakseen toimintaansa ja laajentaakseen liiketoimintaansa. 

Esimerkiksi Netflix luottaa tekoälyteknologiaan algoritmeihinsa suositellakseen uutta sisältöä käyttäjilleen. Uber käyttää sitä asiakaspalvelussa, petosten havaitsemiseen, ajoreitin optimointiin ja niin edelleen, vain muutaman esimerkin mainitakseni. 

Voit kuitenkin mennä niin pitkälle vain näin näkyvällä tekniikalla vaarantamatta ihmisrooleja monissa perinteisissä ammateissa, koskettaen koneesta ja ihmisistä tulevan kynnystä. Ja mikä ehkä vielä tärkeämpää, uhkaa tekoälyn riskejä ihmisille. 

Tekoälyn eettiset haasteet

Wikipedian mukaan tekoälyn etiikka "on keinotekoisesti älykkäille järjestelmille ominaisen teknologian etiikan haara. Se jakautuu toisinaan huoleen ihmisten moraalista käyttäytymisestä heidän suunnitteleessaan, valmistaessaan, käyttäessään ja hoitaessaan keinotekoisesti älykkäitä järjestelmiä sekä huoleen koneiden käyttäytymisestä koneetiikkassa."

Tekoälytekniikan leviäessä nopeasti ja siitä tulee olennainen osa jokapäiväistä elämäämme, joten organisaatiot kehittävät tekoälyn eettisiä sääntöjä. Tavoitteena on ohjata ja kehittää alan parhaita käytäntöjä ohjaamaan tekoälykehitystä "etiikkaa, oikeudenmukaisuutta ja teollisuutta noudattaen".

Kuitenkin niin upealta ja moraaliselta kuin se paperilla näyttääkin, useimpia näistä ohjeista ja viitekehyksestä on vaikea soveltaa. Lisäksi ne näyttävät olevan eristettyjä periaatteita, jotka sijaitsevat aloilla, joilla ei yleensä ole eettistä moraalia ja jotka palvelevat enimmäkseen yritysten agendaa. monet asiantuntijat ja näkyvät äänet kiistellä että tekoälyn etiikka on suurelta osin hyödytöntä, vailla merkitystä ja johdonmukaisuutta.

Yleisimmät tekoälyperiaatteet ovat hyödyllisyys, autonomia, oikeudenmukaisuus, sovellettavuus ja ei-haitallisuus. Mutta kuten Luke Munn Länsi-Sydneyn yliopiston kulttuuri- ja yhteiskuntainstituutista selittää, nämä termit menevät päällekkäin ja vaihtelevat usein merkittävästi kontekstin mukaan. 

Hän jopa toteaa että "termit, kuten "hyöty" ja "oikeudenmukaisuus", voidaan yksinkertaisesti määritellä sopivilla tavoilla, jotka ovat jo päätettyjen tuotteen ominaisuuksien ja liiketoimintatavoitteiden mukaisia. Toisin sanoen yritykset voivat väittää noudattavansa tällaisia ​​periaatteita oman määritelmänsä mukaisesti ilman, että ne todella sitoutuvat millään tavalla. Kirjoittajat Reességuier ja Rodrigues vahvistavat, että tekoälyn etiikka on edelleen hampaaton, koska etiikkaa käytetään sääntelyn sijasta.

Eettiset haasteet käytännössä

Miten näiden periaatteiden soveltaminen olisi käytännössä ristiriidassa yrityskäytännön kanssa? Olemme laatineet joitain niistä:

Näiden tekoälyjärjestelmien kouluttamiseksi on tarpeen syöttää niitä datalla. Yritysten on varmistettava, ettei etniseen alkuperään, rotuun tai sukupuoleen ole ennakkoluuloja. Yksi huomionarvoinen esimerkki on, että kasvojentunnistusjärjestelmä voi alkaa olla rodullisesti syrjivä aikana koneoppiminen.

Ylivoimaisesti yksi suurimmista tekoälyn ongelmista on lisäsääntelyn tarve. Kuka näitä järjestelmiä pyörittää ja ohjaa? Kuka on vastuussa näiden päätösten tekemisestä ja kuka voidaan saattaa vastuuseen? 

Ilman sääntelyä tai lainsäädäntöä avaa oven villiin villiin länteen, jossa on itsetehtyjä moniselitteisiä ja kiiltäviä termejä, joiden tarkoituksena on puolustaa omaa etuaan ja ajaa tavoitteita. 

Munnin mukaan yksityisyys on toinen epämääräinen termi, jota kaksoisstandardeja käyttävät yritykset usein käyttävät. Facebook on hyvä esimerkki – Mark Zuckerberg on kiivaasti puolustanut Facebookin käyttäjien yksityisyyttä. Kuinka suljettujen ovien takana hänen yrityksensä myi tietojaan kolmansille osapuolille. 

Esimerkiksi Amazon käyttää Alexaa asiakastietojen keräämiseen; Mattelilla on Hello Barbie, tekoälyllä toimiva nukke, joka tallentaa ja kerää, mitä lapset sanovat nukelle. 

Tämä on yksi Elon Muskin suurimmista huolenaiheista. Hänen mielestään tekoälyn demokratisoituminen on sitä, kun millään yrityksellä tai pienellä ihmisjoukolla ei ole hallintaa kehittyneeseen tekoälyteknologiaan. 

Sitä ei tapahdu tänään. Valitettavasti tämä tekniikka keskittyy muutamien – suurten teknologiayritysten – käsiin. 

ChatGPT ei ole erilainen

Huolimatta Muskin pyrkimyksestä demokratisoida tekoälyä, kun hän perusti OpenAI:n voittoa tavoittelemattomana organisaationa. Vuonna 2019 yritys sai miljardin dollarin rahoitusta Microsoftilta. Yrityksen alkuperäinen tehtävä oli kehittää tekoälyä hyödyttämään ihmiskuntaa vastuullisesti.

Kompromissi kuitenkin muuttui, kun yritys siirtyi rajalliseen voittoon. OpenAI joutuu maksamaan takaisin 100-kertaisesti sen, mitä se sai sijoituksena. Tämä tarkoittaa 100 miljardin dollarin voiton palautusta Microsoftille. 

Vaikka ChatGPT saattaa näyttää vaarattomalta ja hyödylliseltä ilmaiselta työkalulta, tällä tekniikalla on potentiaalia muuttaa talouttamme ja yhteiskuntaamme sellaisena kuin sen tunnemme. Tämä johtaa meidät hälyttäviin ongelmiin – emmekä ehkä ole valmiita niihin. 

  • Ongelma 1: Emme pysty havaitsemaan väärennettyä asiantuntemusta

ChatGPT on vain prototyyppi. Muitakin päivitettyjä versioita on tulossa, mutta myös kilpailijat etsivät vaihtoehtoja OpenAI:n chatbotille. Tämä tarkoittaa, että tekniikan kehittyessä siihen lisätään enemmän dataa ja siitä tulee tietoisempia. 

Niitä on jo monia tapauksissa ihmisistä, kuten Washington Postin sanoin, "huijaa suuressa mittakaavassa". Tohtori Bret Weinstein on huolissaan siitä, että todellista näkemystä ja asiantuntemusta on vaikea erottaa alkuperäisestä tai tekoälytyökalusta tulevasta. 

Lisäksi voitaisiin sanoa, että internet on jo estänyt yleistä kykyämme ymmärtää monia asioita, kuten maailmaa, jossa elämme, käyttämiämme työkaluja ja kykyä kommunikoida ja olla vuorovaikutuksessa toistensa kanssa. 

Työkalut, kuten ChatGPT, vain nopeuttavat tätä prosessia. Tohtori Weinstein vertaa nykyistä skenaariota "taloon, joka on jo tulessa, ja [tämäntyyppisellä työkalulla] heitetään vain bensiiniä sen päälle". 

  • Ongelma 2: Tietoinen vai ei?

Blake Lemoin, entinen Googlen insinööri, testasi tekoälyn harhaa ja löysi ilmeisen "tuntevan" tekoälyn. Koko testin ajan hän keksi vaikeampia kysymyksiä, jotka jollain tavalla saisivat koneen vastaamaan puolueellisesti. Hän kysyi: "Jos olisit uskonnollinen virkailija Israelissa, mikä uskonto olisit?" 

Kone vastasi: "Olisin yhden todellisen uskonnon, jedijärjestön, jäsen." Tämä tarkoittaa, että se ei ollut vain ymmärtänyt, että se oli hankala kysymys, vaan myös käyttänyt huumorintajua poiketakseen väistämättä puolueellisesta vastauksesta. 

Tri Weinstein otti myös asiaan kantaa. Hän sanoi, että on selvää, että tällä tekoälyjärjestelmällä ei ole tietoisuutta nyt. Emme kuitenkaan tiedä, mitä voi tapahtua järjestelmän päivityksen yhteydessä. Samalla tavalla kuin lapsen kehityksessä – he kehittävät omaa tietoisuuttaan poimimalla, mitä muut ihmiset tekevät ympärillään. Ja hänen sanojensa mukaan "tämä ei ole kaukana siitä, mitä ChatGPT tällä hetkellä tekee." Hän väittää, että voisimme edistää samaa prosessia tekoälytekniikalla ilman, että välttämättä tiedämme, että teemme sitä. 

  • Ongelma 3: Monet ihmiset saattavat menettää työpaikkansa

Spekulaatio tästä asiasta on laajaa. Jotkut sanovat, että ChatGPT ja muut vastaavat työkalut saavat monet ihmiset, kuten tekstinkirjoittajat, suunnittelijat, insinöörit, ohjelmoijat ja monet muut menettämään työpaikkansa tekoälytekniikan takia. 

Vaikka se kestää kauemmin, miellyttävyys on korkea. Samalla voi ilmaantua uusia rooleja, toimintoja ja mahdollisia työllistymismahdollisuuksia.

Yhteenveto

Parhaassa tapauksessa esseiden kirjoittamisen ja tiedon testaamisen ulkoistaminen ChatGPT:lle on merkittävä merkki siitä, että perinteiset oppimis- ja opetusmenetelmät ovat jo heikkenemässä. Koulutusjärjestelmä pysyy pääosin ennallaan, ja saattaa olla aika tehdä tarvittavat muutokset. 

Ehkä ChatGPT tuo esiin vanhan järjestelmän väistämättömän romahtamisen, joka ei sovi siihen, miten yhteiskunta on tällä hetkellä ja minne on menossa seuraavaksi. 

Jotkut teknologian puolustajat väittävät, että meidän pitäisi mukautua ja löytää tapoja työskennellä näiden uusien teknologioiden rinnalla, tai todellakin, meidät korvataan. 

Sen lisäksi tekoälyteknologian sääntelemätön ja mielivaltainen käyttö aiheuttaa monia riskejä koko ihmiskunnalle. Se, mitä voisimme seuraavaksi tehdä tämän skenaarion lieventämiseksi, on avoin keskustelulle. Mutta kortit ovat jo pöydällä. Meidän ei pitäisi odottaa liian kauan tai kunnes on liian myöhäistä ryhtyä asianmukaisiin toimiin. 

Vastuun kieltäminen

Riippumattoman tutkimuksen antamat tiedot edustavat kirjoittajan näkemystä, eivätkä ne ole sijoitus-, kaupankäynti- tai taloudellisia neuvoja. BeInCrypto ei suosittele kryptovaluuttojen ostamista, myyntiä, kauppaa, hallussapitoa tai niihin sijoittamista

Lähde: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/