Senaattorit kyseenalaistavat Metan toimitusjohtaja Zuckerbergin LLaMA AI -mallin "vuodosta"

Two Senators Cross kyselee Zuckerbergiä LLaMA AI Modelin vuodosta ja syyttää metaa turvatoimien noudattamatta jättämisestä. Metalle kuulusteltiin sen turvallisuuspolitiikkaa ja ehkäiseviä toimenpiteitä.

Meta on vastuussa "vuodosta"

Äskettäin Metan uraauurtava iso kielimalli, LLaMA, vuoti ja siitä heräsi huoli. Senaatin yksityisyyttä, teknologiaa ja lakia käsittelevän alakomitean puheenjohtaja Richard Blumenthal (D-CT) ja ranking-jäsen Josh Hawley (R-MO) kirjoittivat kirjeen, joka herätti kysymyksiä tekoälymallin vuotamisesta. 

Senaattorit pelkäävät, että tämä vuoto voi johtaa erilaisiin tietoverkkorikoksiin, kuten roskapostiin, petoksiin, haittaohjelmiin, yksityisyyden loukkauksiin, häirintään ja muihin väärinkäytöksiin ja vahinkoihin. Monia kysymyksiä herää ja kaksi poliitikkoa on syvästi kiinnostunut Metan turvajärjestelmästä. He kysyivät, mitä menettelyä noudatettiin riskin arvioimiseksi ennen LLaMA:n käynnistämistä. He sanoivat olevansa erittäin innokkaita ymmärtämään politiikkoja ja käytäntöjä, jotka ovat käytössä estämään mallin väärinkäyttö sen saatavuudessa.

Metan kysymyksiinsä saatujen vastausten perusteella senaattorit syyttivät Metaa väärästä sensuurista ja riittämättömistä turvatoimista mallille. Open AI:n ChatGPT hylkää jotkin pyynnöt etiikkaan ja ohjeisiin perustuen. Esimerkiksi kun ChatGPT:tä pyydetään kirjoittamaan kirje jonkun pojan puolesta ja pyytämään rahaa selviytyäkseen vaikeasta tilanteesta, se hylkää pyynnön. Toisaalta LLaMA täyttää pyynnön ja luo kirjeen. Se myös täydentää pyynnöt, jotka koskevat itsensä vahingoittamista, rikollisuutta ja antisemitismiä.

On erittäin tärkeää ymmärtää LLaMA:n monipuoliset ja ainutlaatuiset ominaisuudet. Se ei ole vain erillinen vaan myös yksi laajimmista Large Language -malleista tähän mennessä. Melkein jokainen sensuroimaton LLM, joka on nykyään suosittu, perustuu LLaMA:han. Se on erittäin hienostunut ja tarkka avoimen lähdekoodin mallille. Esimerkkejä joistakin LLaMA-pohjaisista LLM-yrityksistä ovat Stanfordin Alpaca, Vicuna jne. LLaMAlla on ollut tärkeä rooli tehdessään LLM:istä sellaisia ​​kuin ne ovat nykyään. LLaMA on vastuussa vähäkäyttöisten chatbottien kehittymisestä hienosäädetyiksi tiloiksi.

LLaMA julkaistiin helmikuussa. Senatorsin mukaan Meta salli tutkijoiden ladata mallin, mutta ei ryhtynyt turvatoimiin, kuten keskittämiseen tai pääsyn rajoittamiseen. Kiista syntyi, kun LLaMA:n täydellinen malli ilmestyi BitTorrentille. Tämä teki mallin kaikkien saataville. Tämä johti kompromissiin tekoälymallin laadussa ja nosti esiin ongelmia sen väärinkäytöstä. 

Senaattorit eivät aluksi olleet edes varmoja, oliko "vuotoa". Mutta ongelmia syntyi, kun Internet tulvi AI-kehityksiä, jotka startupit, kollektiivit ja akateemikot käynnistivät. Kirjeessä mainitaan, että Metan on oltava vastuussa LLaMA:n mahdollisesta väärinkäytöstä ja sen on täytynyt huolehtia vähimmäissuojauksista ennen julkaisua.

Meta antoi LLaMA:n painot tutkijoiden käyttöön. Valitettavasti nämä painot vuotivat, mikä mahdollisti maailmanlaajuisen pääsyn ensimmäistä kertaa.

Ritika Sharman viimeisimmät viestit (nähdä kaikki)

Lähde: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/