OpenAI:n viime kesänä perustama erityistutkimusryhmä, joka pyrki varmistamaan superälykkään tekoälyn ja ihmiskunnan välisen yhteistyön turvallisuuden, on nyt virallisesti lopetettu, kertoo Wired.
OpenAI:n tekoälylegenda ja yksi perustajajäsenistä Ilya Sutskever johti Superalignment-tiimiä. Hän ja monet muut Superalignment-tiimin jäsenet, kuten merkkihenkilö Jan Leike, ovat eronneet OpenAI:sta.
“Liityin mukaan, koska ajattelin, että OpenAI olisi maailman paras paikka tehdä tekoälytutkimusta. Olen kuitenkin ollut jo jonkin aikaa eri mieltä OpenAI:n johdon kanssa yrityksen keskeisistä prioriteeteista”, Leike kommentoi eroa X-postauksensa kommenteissa.
Superalignment-nimiselle tiimille luvattiin alun perin 20 prosenttia OpenAI:n laskentatehosta. Tästä huolimatta pyynnöt saada edes murto-osa luvatuista resursseista hylättiin, lähteet kertovat TechCrunchille.
OpenAI:lla on kuitenkin yhä toiminnassa toinen tutkimusryhmä “Preparedness” (suom. valmistautuminen), joka keskittyy tekoälyn eettisiin huoliin, kuten yksityisyyteen, emotionaaliseen manipulaatioon ja kyberturvaan.
Superalignment-tiimin entinen johtaja Sutskever oli mukana OpenAI:n toimitusjohtaja Sam Altmanin erottamiskohussa, jonka kerrottiin johtuneen “luottamuspulasta” Altmania kohtaan.
Oman eronsa jälkeen Sutskever on kuitenkin sanonut luottavansa, että OpenAI kehittää superälykästä tekoälyä turvallisesti.
Superalignment-tiimin virallinen hajoaminen tapahtui samoihin aikoihin kuin OpenAI julkisti uuden multimodaalisen tekoälymallin nimeltään GPT-4o, joka kykenee tarkkailemaan maailmaa videon ja äänen avulla.