OpenAI:n turvallisen tekoälyn tiimi sai lähteä
Superalignment-tiimi pyrki kehittämään superälykkään tekoälyn, joka jakaisi ihmisten arvomaailman ja palvelisi ihmiskunnan etua.
Max Lehtinen
18.5.2024

OpenAI:n viime kesänä perustama erityistutkimusryhmä, joka pyrki varmistamaan superälykkään tekoälyn ja ihmiskunnan välisen yhteistyön turvallisuuden, on nyt virallisesti lopetettu, kertoo Wired.

OpenAI:n tekoälylegenda ja yksi perustajajäsenistä Ilya Sutskever johti Superalignment-tiimiä. Hän ja monet muut Superalignment-tiimin jäsenet, kuten merkkihenkilö Jan Leike, ovat eronneet OpenAI:sta. 

“Liityin mukaan, koska ajattelin, että OpenAI olisi maailman paras paikka tehdä tekoälytutkimusta. Olen kuitenkin ollut jo jonkin aikaa eri mieltä OpenAI:n johdon kanssa yrityksen keskeisistä prioriteeteista”, Leike kommentoi eroa X-postauksensa kommenteissa.

Superalignment-nimiselle tiimille luvattiin alun perin 20 prosenttia OpenAI:n laskentatehosta. Tästä huolimatta pyynnöt saada edes murto-osa luvatuista resursseista hylättiin, lähteet kertovat TechCrunchille

OpenAI:lla on kuitenkin yhä toiminnassa toinen tutkimusryhmä “Preparedness” (suom. valmistautuminen), joka keskittyy tekoälyn eettisiin huoliin, kuten yksityisyyteen, emotionaaliseen manipulaatioon ja kyberturvaan. 

Superalignment-tiimin entinen johtaja Sutskever oli mukana OpenAI:n toimitusjohtaja Sam Altmanin erottamiskohussa, jonka kerrottiin johtuneen “luottamuspulasta” Altmania kohtaan. 

Oman eronsa jälkeen Sutskever on kuitenkin sanonut luottavansa, että OpenAI kehittää superälykästä tekoälyä turvallisesti. 

Superalignment-tiimin virallinen hajoaminen tapahtui samoihin aikoihin kuin OpenAI julkisti uuden multimodaalisen tekoälymallin nimeltään GPT-4o, joka kykenee tarkkailemaan maailmaa videon ja äänen avulla.

Suositellut

Uusimmat