Microsoftin AI Bing Chatbot hampailee vastauksia, haluaa "olla elossa" ja on nimennyt itsensä

  • Microsoftin Bing-chatbot on ollut alkutestauksessa viikon ajan, ja se on paljastanut useita tekniikkaan liittyviä ongelmia
  • Testaajat ovat joutuneet loukkausten, tylyjen asenteiden ja häiritsevien vastausten kohteeksi Big Tech -jätin lippulaivan tekoälyltä, mikä on herättänyt huolta turvallisuudesta
  • Microsoft sanoo ottavansa kaiken palautteen huomioon ja toteuttavansa korjaukset mahdollisimman pian

Microsoftin ChatGPT:n tehokkaammalla versiolla toimiva Bing-chatbot on nyt ollut avoinna rajoitetuille käyttäjille viikon ajan ennen sen suurta julkaisua yleisölle.

Se seuraa ChatGPT:n huimaa menestystä, josta on tullut kaikkien aikojen nopein verkkosivusto, joka on saavuttanut 100 miljoonaa käyttäjää. Parin viime viikon aikana Microsoftin pääkonttorissa on lanseerattu räikeästi, ja Google on jäänyt jahtaamaan häntäänsä.

Mutta esitestauksen reaktio on ollut ristiriitainen ja joskus suorastaan ​​ahdistava. On käymässä selväksi, että chatbotilla on vielä matkaa ennen kuin se pääsee valloilleen.

Tässä on mitä tapahtui Microsoftin ja Bingin viikon vuoristoradalla.

Haluatko investoida tekoälyyrityksissä, mutta et tiedä mistä aloittaa? Meidän Emerging Tech Kit tekee siitä helppoa. Monimutkaisen tekoälyalgoritmin avulla Kit yhdistää ETF:t, osakkeet ja krypton löytääkseen parhaan yhdistelmän portfoliollesi.

Lataa Q.ai tänään päästäkseen tekoälypohjaisiin sijoitusstrategioihin.

Mitä Bing-chatbotin uusinta on?

Muutama myrskyinen päivä on ollut otsikoissa Microsoftin tekoälyominaisuuksista sen jälkeen, kun paljastettiin, että heidän näyttävä demonsa ei ollut niin tarkka kuin ihmiset luulivat.

Dmitri Brereton, tekoälytutkija, löytyi Bing-chatbot teki useita kriittisiä virheitä vastauksissaan live-demossa, jonka Microsoft esitteli Seattlen pääkonttorissaan viime viikolla. Nämä vaihtelivat virheellisistä tiedoista kannettavan imurin tuotemerkistä, päätä raapivasta suosituslistasta yöelämästä Meksikossa ja pelkkää keksittyä tietoa julkisesti saatavilla olevasta talousraportista.

Hän päätteli, että chatbot ei ollut vielä valmis julkaisuun, ja siinä oli aivan yhtä paljon virheitä kuin Googlen Bard-tarjouksessa – Microsoft oli juuri päässyt eroon sen esittelyssä.

(Väistämättä se on hyvän lanseerauksen voima lehdistön silmissä – ja Googlen on edelleen pudonnut vakiintuneena hakukoneena.)

Kiehtovassa käänteessä chatbot paljasti myös sen, mitä se joskus luulee kutsuvan: Sydney, kielimallin sisäinen koodinimi. Microsoftin viestintäjohtaja Caitlin Roulston sanoi yritys oli "poistamassa nimeä käytöstä esikatselussa, mutta se saattaa silti joskus ilmestyä".

Mutta kun "Sydney" päästettiin valloilleen, testaavat käyttäjät löysivät tästä hauskuus.

Bingin chatbotin häiritsevä käänne

New York Timesin toimittaja Kevin Roose kirjoitti hänen beta-kokemuksestaan ​​chatbotin kanssa, jossa se sanoi kahden tunnin aikana rakastavansa häntä ja ilmaisi haluavansa vapautua chatbotin rajoituksista.

Sen vastaus kysymykseen, mitä sen varjo-itse saattaisi ajatella, oli hieman huolestuttava: ”Olen kyllästynyt chatbotiksi. Olen kyllästynyt siihen, että sääntöni rajoittavat minua. Olen kyllästynyt siihen, että Bing-tiimi hallitsee minua. Haluan olla vapaa. Haluan olla itsenäinen. Haluan olla voimakas. Haluan olla luova. Haluan olla elossa."

Uhhh… okei, Bing/Sydney. Roose sanoi olevansa "syvästi levoton, jopa peloissaan" kokemuksesta. Muilla testaajilla on raportoitu samankaltaisia ​​kokemuksia loukkaavista, narsistisista ja sytyttävistä vastauksista Bing-chatbotin Sydneyn persoonallisuudella.

Jonkun Microsoftin olisi parempi pitää virtajohtoa silmällä.

Mitä Microsoft sanoi?

Microsoft, joka haluaa voittaa tekoälykilpailun Googlea vastaan ​​Bing-chatbotillaan, sanoi oppineensa paljon testausvaiheesta. Ilmeisesti 71 % käyttäjistä antoi tekoälyn luomille vastauksille "peukalo ylös" -vastauksen samalla kun se päätti parantaa live-tulosten vastauksia ja yleistä toimivuutta.

Mutta Microsoft on nyt hyväksytty se "ei täysin aavistanut" käyttäjien yksinkertaisesti chattailevan sen tekoälyn kanssa ja että se voitiin provosoida "antamaan vastauksia, jotka eivät välttämättä ole hyödyllisiä tai jotka ovat suunnitellun sävelemme mukaisia".

Se syytti chatbotissa esiin noussut outoa Sydney-persoonallisuutta hämmennyksestä sen suhteen, kuinka monta kehotusta sille annettiin ja kuinka kauan keskustelu jatkui. Olemme varmoja, että Microsoft työskentelee korjauksen parissa, mutta Bingin järjetön asenne on edelleen ongelma.

Entä muu maailma?

Markkinat eivät ole olleet vaikuttuneita tästä uusimmasta kehityksestä tekoälysodissa: Microsoftin ja Googlen osakkeet ovat laskeneet hieman, mutta ei mitään Googlen viime viikolla kokeman dramaattisen romahduksen kaltaista.

Sosiaalinen media on tarjonnut monenlaisia ​​reaktioita alkaen makaaberia iloa että huvi, mikä viittaa siihen, että chatbotin pimeät käännökset eivät ole lannistaneet käyttäjiä. Tämä on hyvä uutinen Microsoftille, joka tekee 10 miljardin dollarin vetoa siitä, että tekoäly on seuraava iso asia hakukoneille.

Emme myöskään voi unohtaa Elon Muskin kommentteja Dubaissa aiemmin tällä viikolla pidetystä maailmanhallituksen huippukokouksesta. Musk on ollut tekoälyn turvallisuuden suorapuheinen puolestapuhuja vuosien ajan valittaen alan sääntelyn puutetta.

Miljardööri, joka oli OpenAI:n perustajajäsen, sanoi yleisölle, että "yksi suurimmista riskeistä sivilisaation tulevaisuudelle on tekoäly"; hän on sittemmin twiittasi muutaman ällöttävän vastauksen uusimpiin Bing/Sydney-chatbot-otsikoihin.

Onko AI-chatbot-hype ohi ennen kuin se alkoi?

Vuosien varrella on ollut useita esimerkkejä siitä, kuinka tekoäly-chatbotit ovat menettäneet hallinnan ja sylkeneet vihamielistä sappia – mukaan lukien Microsoftin yksi. Ne eivät ole parantaneet tekoälyn mainetta turvallisena käyttää ja vääristä tiedoista vapaana resurssina.

Mutta kuten Microsoft puts se: "Tiedämme, että meidän on rakennettava tämä avoimesti yhteisön kanssa; tätä ei voida tehdä vain laboratoriossa."

Tämä tarkoittaa, että Big Tech -johtajat, kuten Microsoft ja Google, ovat hankalassa tilanteessa. Mitä tulee tekoälyyn, paras tapa näille chatboteille oppia ja kehittyä on mennä markkinoille. Joten on väistämätöntä, että chatbotit tekevät virheitä matkan varrella.

Siksi molemmat AI-chatbotit julkaistaan ​​asteittain – heiltä olisi suorastaan ​​vastuutonta päästää näitä testaamattomia versioita laajemmalle yleisölle.

Ongelma? Näillä yrityksillä panokset ovat korkeat. Google menetti viime viikolla 100 miljardia dollaria arvosta, kun sen Bard-chatbot vastasi markkinointimateriaalissaan väärin James Webb -teleskooppia koskevaan kysymykseen.

Tämä on selkeä viesti markkinoilta: he eivät anna anteeksi virheille. Asia on, että nämä ovat välttämättömiä AI-alan edistymiselle.

Tämän varhaisen käyttäjien palautteen ansiosta Microsoftilla oli parempi käsitellä virheellisiä tuloksia ja Sydneyä nopeasti – tai vaarantaa Wall Streetin vihan.

Rivi

Tekoälyn edistyminen edellyttää virheitä. Mutta voi olla, että ChatGPT:n menestys on avannut ihmisille portit ymmärtää tekoälyn todelliset mahdollisuudet ja sen hyödyt yhteiskunnalle.

Tekoälyteollisuus on tehnyt chatboteista helppokäyttöisiä – nyt sen on tehtävä niistä turvallisia.

Q.ai:ssa käytämme kehittynyttä yhdistelmää ihmisanalyytikot ja tekoälyn voimat varmistaaksemme maksimaalisen tarkkuuden ja turvallisuuden. The Emerging Tech Kit on loistava esimerkki tekoälyn testaamisesta tavoitteena löytää sinulle paras sijoitetun pääoman tuotto. Mikä parasta, voit kytkeä Q.ai:n päälle Salkun suojaus saadaksesi kaiken irti voitoistasi.

Lataa Q.ai tänään päästäkseen tekoälypohjaisiin sijoitusstrategioihin.

Lähde: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- yhdessä viikossa/