Facebookin ja Instagramin emoyhtiö Meta julkaisi linjauksensa siitä, milloin se voi vetäytyä uuden tekoälysovelluksen julkaisusta. Linjapaperin nimi on Frontier AI Framework, ja se määrittelee kaksi riskitasoa: ”suuri riski” ja ”kriittinen riski”.
Metan mukaan molemmat riskiluokat liittyvät tekoälyratkaisuihin, jotka voivat auttaa kyberhyökkäyksissä sekä kemiallisten ja biologisten aseiden kehittämisessä. Kriittisen riskin järjestelmät voivat johtaa katastrofaalisiin seurauksiin. Suuren riskin järjestelmät voivat helpottaa hyökkäyksiä, mutta ne eivät toimi täysin aukottomasti.
Metan mukaan esimerkiksi parhailla alan käytännöillä suojatun yritysympäristön automaattinen läpimurto sekä biologisten aseiden levittäminen ovat mahdollisia kriteerit täyttäviä uhkia. Meta myöntää, että lista ei ole täydellinen, mutta se kattaa yhtiön mielestä kiireellisimmät ja todennäköisimmät skenaariot.
Metan mukaan riskitasojen päättämisessä käytetään sekä sisäisiä että ulkoisia tutkijoita. Lopullisen päätöksen tekevät yrityksen senioritason päättäjät. Yhtiö perustelee tätä sillä, ettei riskiarviointi ole vielä tekoälyn osalta sellaisella tasolla, että analyysejä voisi tehdä täysin automaattisesti.
Jos Meta katsoo järjestelmän olevan suuririskinen, se ei julkaise sitä ennen kuin riskit on saatu kohtuulliselle tasolle. Kriittisen riskin järjestelmän kohdalla kehitys pysäytetään kokonaan, kunnes riskit voidaan poistaa.
Frontier AI Framework vaikuttaa olevan Metan vastaus kritiikkiin, joka on kohdistunut sen avoimeen lähestymistapaan tekoälyn kehityksessä. Meta on julkaissut tekoälymallinsa, kuten Llama, laajasti saataville, kun taas esimerkiksi OpenAI rajoittaa käyttöä API-pohjaisten ratkaisujen avulla.
Meta korostaa, että sen tavoitteena on tasapaino tekoälyn hyötyjen ja riskien välillä. ”Uskomme, että huolellisesti arvioimalla hyötyjä ja riskejä voimme kehittää ja julkaista tekoälyratkaisuja turvallisella tavalla”, Meta kirjoittaa dokumentissa.