Hakkeriryhmät ovat aloittaneet suurten kielimallien hyödyntämisen kyberhyökkäysten apuna, selviää Microsoftin ja OpenAI:n uudesta tutkimuksesta.
Teknologiajätit tunnistivat tutkimuksessaan viisi eri hakkeriryhmää, jotka ovat käyttäneet kielimalleja apuna esimerkiksi tiedonhankinnassa ja haittaohjelmien koodaamisessa.
Paljastuneilla hakkeriryhmillä on siteitä Kiinan, Venäjän, Iranin ja Pohjois-Korean hallintoihin.
Eräs ryhmistä, kiinalainen Charcoal Typhoon, on esimerkiksi käyttänyt ChatGPT:tä etsiessään tietoja yrityksistä ja kyberturvallisuuteen liittyvistä työkaluista. Ryhmä on hyödyntänyt ChatGPT:tä myös oman koodinsa vianmääritykseen ja tietojenkalasteluun tarkoitettujen viestien kirjoittamiseen.
Venäjän sotilastiedusteluun liitetty Forest Blizzard eli Strontium taas on käyttänyt suuria kielimalleja tehdessään tiedonhankintaa erinäisistä “satelliitti- ja tutkateknologioista, jotka saattavat liittyä sotilasoperaatioihin Ukrainassa”, Microsoft kertoo.
OpenAI:n mukaan kaikkien paljastuneiden toimijoiden ChatGPT-tilit on jäädytetty.
OpenAI ja Microsoft kertovat lisäksi uusista ennaltaehkäisevistä toimista turvallisen tekoälykäytön varmistamiseksi.
Yritykset lupaavat esimerkiksi lisäävänsä tiedon jakamista hakkereista muiden tekoälytarjoajien ja relevanttien toimijoiden välillä.
Yritykset pyrkivät valmistautumaan tekoälyn väärinkäyttöön myös kehittämällä omia defensiivisiä tekoälytyökalujaan. Microsoft kehittää paraikaa uutta Security Copilot -tekoälyavustajaa, joka on suunniteltu kyberturvallisuuden ammattilaisille vaaratilanteiden tutkinnan, raportoinnin ja data-analyysin tehtäviin.
Teknologiajätit aikovat myös jatkaa hakkerien ja tekoälyn vuorovaikutuksen analysointia pysyäkseen ajan tasalla siitä, miten tekoälymallit voidaan valjastaa pahantahtoisiin hyökkäyksiin.
“Jatkamalla innovointia, tutkimusta, yhteistyötä ja jakamista vaikeutamme pahantahtoisten toimijoiden mahdollisuuksia jäädä huomaamatta koko digitaalisessa ekosysteemissä”, OpenAI kirjoittaa blogipostauksessaan.
Vakavamielisistä turvallisuuspuheistaan huolimatta OpenAI ei vaikuta olevan vielä erityisen huolissaan ChatGPT-4:n nykyisestä kyvykkyydestä auttaa pahantahtoisia toimijoita.
Yritys kuvailee hakkereiden saavuttamaa lisävalmiutta “rajoitetuksi ja inkrementaaliseksi”.
Microsoft on kuitenkin varoitellut jo aikaisemmin tekoälyn vahingollisten käyttökohteiden laajenevan jatkuvasti. Eräs huolestuttava sovelluskohde on ihmisäänen tarkka imitointi.
“Vain kolmen sekunnin ääninäyte voi kouluttaa mallin kuulostamaan keneltä tahansa. Jopa niinkin harmitonta asiaa kuin vastaajaviestiä voidaan käyttää riittävänä otoksena”, Microsoft kirjoittaa.