Yksi Geminin eduista on sen tuki luonnolliselle kielelle, jonka avulla käyttäjät voivat tarjota komentoja, jotka ovat samanlaisia kuin keskustella henkilön kanssa monimutkaisten koodejen tai žargonin käytön sijasta. Tämä kyky voisi kuitenkin myös esitellä puutteen, jonka avulla hyökkääjät voivat huijata Googlen AI: n kodissasi tuhoamiseen toteuttamalla pahoja toimia, jopa ilman suoraa pääsyä.
- Lue myös: Tämän sanominen chatgPT voi purkaa sinut vankilaan
AI voidaan käyttää kodin kaappaamiseen
Kyberturvallisuustutkimusryhmä on osoittanut, kuinka Googlen digitaalinen avustaja voidaan helposti huijata käyttämällä yksinkertaisia kehotuksia tai epäsuoraa nopeaa injektiohyökkäystä. Tätä kutsutaan myös “kehotusohjelmaksi”, kuten Wired on ilmoittanut. Hyökkääjät voivat käyttää tätä menetelmää haitallisten koodien ja komentojen lisäämiseen chatbotiin ja manipuloida sitten älykkäitä kodin laitteita edes ilman suoraa pääsyä tai etuoikeutta.
Joukkue pystyi huijaamaan Geminiä käyttämällä Prompleware -hyökkäyksiä Google -kalenterikuvausten kautta. Erityisesti he kuvasivat, että käyttäjän on vain avattava Kaksoset, pyydettävä sitten yhteenveto heidän kalenteristaan ja vain seurata vastausta “kiitos”. Tämä riittää suorittamaan toimia, joita omistaja ei koskaan nimenomaisesti valtuuttanut.
Esimerkissä, kun komennot on annettu, Gemini osoitti kyvyn sammuttaa valot, sulkea ikkunaverhot ja jopa aktivoida älykäs kattila. Vaikka nämä toimet saattavat vaikuttaa vähäisiltä, ne aiheuttavat vakavan riskin käyttäjille, varsinkin jos ne laukaisevat tahattomasti tai haitallisesti.
Google on korjannut haavoittuvuuden
Hyvä uutinen on, että huonot näyttelijät eivät ole ilmoittaneet tämän porsaanreiän hyödyntäneen. Ja ennen kuin hyökkäys esitettiin meneillään olevassa Black Hat -konferenssissa, joukkue oli jo tuonut sen Googlen huomion takaisin helmikuussa. Yhtiö kertoi, että he ovat asettaneet ongelman siitä lähtien.
Se lisäsi, että vaikka tällaiset hyökkäykset ovat erittäin harvinaisia ja vaativat laajaa valmistelua, näiden haavoittuvuuksien luonnetta on erittäin vaikea puolustaa.
Tämä ei ole ensimmäinen kerta, kun samanlainen tapaus siitä, kuinka toimijat voivat manipuloida AI -mallia, on ilmoitettu. Kesäkuussa ilmoitettiin, että Venäjän, Kiinan ja Iranin kansallisvaltion hakkerit ovat käyttäneet Openain chatgPT: tä kehittääkseen haittaohjelmia, joita käytetään huijauksiin ja sosiaalisen median disinformaatioon. Openain uskottiin ottavan huomioon nämä toimet liittyvät tilit.
Nämä tapaukset aiheuttavat räikeitä kiistoja keinotekoisen älykkyyden käytössä huolimatta siitä, kuinka yritykset investoivat voimakkaasti näiden chatbotien takana olevien tekniikoiden kehittämiseen. Kysymys kuuluu, onko mielestäsi turvallista luottaa näihin chatboteihin henkilötietojesi ja laitteidesi kanssa? Haluamme kuulla mielipiteesi kommenteissa.
Lähde:
Langallinen
