Maaliskuun 14. päivänä X:n Grok-botin käyttäytymistä ohjaavaan promptiin tehtiin X:n mukaan luvaton muutos. Alustalle postauksia tekevä botti alkoi puhumaan Etelä-Afrikassa tapahtuneesta “valkoisesta kansanmurhasta”.
Postaukset eivät xAI:n mukaan vastanneet sen “sisäisiä käytäntöjä tai perusarvoja”.
Kyseessä on jo toinen laajaan tietoisuuteen levinnyt tapaus, jossa Grokin systeemipromptia on peukaloitu. Vain kolme kuukautta sitten selvisi, että Grokia oli ohjeistettu kieltämään kaikki Trumpiin ja Muskiin liittyvät disinformaatioepäilyt.
Nyt X kertoo lisänneensä turvatoimia, joiden tarkoituksena on estää systeemipromptin luvaton muokkaaminen. Turvauudistuksiin kuuluu esimerkiksi uusi tiimi, joka käy läpi kaikki kehotteisiin tehdyt muutokset, X kertoo. Yritys on myös julkaissut Grokin eri versioiden systeemipromptit GitHub-sivullaan.
Tapaus on mainio muistutus, että suurten kielimallien käytös on pitkälti niiden omistamien yritysten käsissä. Muiden tekoälyjättien systeemipromptit (eli tekoälylle annetut käyttäytymisohjeet) ovat usein salattuja.
Kuitenkin esimerkiksi Anthropicin mallien ohjeet ovat julkisia. Anthropic tunnetaankin tekoälykentällä erityisen turvallisuuskeskeisenä yrityksenä.