Microsoft parantaa AI Chatbot -turvallisuutta huijaajien estämiseksi

Microsoft Corp on lisännyt Azure AI Studioon useita suojausominaisuuksia, joiden pitäisi ajan mittaan edelleen vähentää todennäköisyyttä, että sen käyttäjät määrittävät tekoälymallit tilaan, joka saa heidät toimimaan epänormaalisti tai sopimattomasti. Redmondissa sijaitseva monikansallinen teknologiayritys, Washington hahmotteli parannuksia blogikirjoituksessaan, jossa korostetaan tekoälyn vuorovaikutuksen eheyden takaamista ja käyttäjäkunnan luottamuksen lisäämistä.

Nopeat suojat ja paljon muuta 

Yksi tärkeimmistä kehityssuunnista on "prompt shields" -teknologian luominen, joka on suunniteltu etsimään ja tappamaan pikaruiskeet samalla kun keskustellaan AI-chatbottien kanssa. Nämä ovat niin sanottuja jailbreakeja, ja ne ovat periaatteessa käyttäjien syötteitä, jotka on tarkoituksella muodostettu siten, että ne saavat aikaan ei-toivotun vastauksen tekoälymalleista.

Esimerkiksi Microsoft tekee osansa epäsuorasti nopealla injektiolla, jossa pahojen käskyjen toteuttaminen on mahdollista, ja tällainen skenaario voi johtaa vakaviin tietoturvaseuraamuksiin, kuten tietovarkauksiin ja järjestelmän kaappauksiin. Microsoftin vastuullisen tekoälyn tuotejohtajan Sarah Birdin mukaan mekanismit ovat avainasemassa näiden ainutlaatuisten uhkien havaitsemisessa ja niihin vastaamisessa reaaliajassa.

Microsoft lisää, että käyttäjän näytölle tulee pian hälytyksiä, jotka osoittavat, milloin malli todennäköisesti ilmaisee vääriä tai harhaanjohtavia tietoja, mikä lisää käyttäjäystävällisyyttä ja luottamusta.

Rakenna luottamus tekoälytyökaluihin 

Microsoftin ponnistus on osa suurempaa aloitetta, jonka tarkoituksena on antaa ihmisille luottamus yhä suositumpaan generatiiviseen tekoälyyn, jota käytetään laajasti yksittäisille kuluttajille ja yritysasiakkaille suunnatuissa palveluissa. Microsoft kävi läpi hienohampaisen kampan saatuaan tapauksia, joissa käyttäjät pystyivät pelaamaan Copilot-chatbotin tuottamaan outoja tai haitallisia tuloksia. Tämä tukee tulosta, joka osoittaa, että tarvitaan vahvaa puolustusta mainittuja manipulointitaktiikoita vastaan, jotka todennäköisesti nousevat AI-tekniikoiden ja yleisen tiedon myötä. Ennustaminen ja sitten lieventäminen on hyökkäysmallien tunnistamista, kuten json, jossa hyökkääjä toistaa kyseenalaistamista tai kehottaa roolipelissä.

OpenAI:n suurimpana sijoittajana ja strategisena kumppanina Microsoft työntää rajoja vastuullisten, turvallisten generatiivisten tekoälytekniikoiden sisällyttämisessä ja luomisessa. Molemmat ovat sitoutuneet Generative AI:n vastuulliseen käyttöön ja turvatoimien perusmalleihin. Mutta Bird myönsi, että nämä suuret kielimallit eivät ole manipuloinnin kestäviä, vaikka niitä aletaan pitää perustana suurelle osalle tulevaisuuden tekoälyinnovaatioita.

Näille perusteille rakentaminen vaatii paljon muutakin kuin pelkän mallien luottamista; se vaatisi kattavan lähestymistavan tekoälyn turvallisuuteen ja turvallisuuteen.

Microsoft ilmoitti äskettäin vahvistavansa Azure AI Studion turvatoimia näyttääkseen ja varmistaakseen ennakoivia toimia, joita on ryhdytty turvaamaan muuttuvan tekoälyn uhkia.

Se pyrkii välttämään tekoälyn väärinkäyttöä ja säilyttämään tekoälyn vuorovaikutuksen eheyden ja luotettavuuden sisällyttämällä oikea-aikaiset näytöt ja hälytykset.

Tekoälytekniikan jatkuvan kehityksen ja sen omaksumisen monissa arkielämän osissa Microsoftin ja muun tekoälyyhteisön on korkea aika säilyttää erittäin valppaana turvallisuusasenne.

Lähde: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/