„Google“, „Microsoft“, „OpenAI“ ir „Anthropic“ susivienijo, kad išspręstų galimą „pasienio AI modelių“ riziką ir iššūkius.
Key Takeaways
- „Google“, „Microsoft“, „OpenAI“ ir „Anthropic“ susivienijo, kad spręstų iššūkius ir galimą riziką, kurią kelia „paribiniai AI modeliai“, sukurdami „Frontier Model Forum“.
- Pasienio modeliai yra pažangesni nei esami AI modeliai ir gali atlikti daugybę užduočių, todėl kyla susirūpinimas dėl jų suderinimo su žmogiškosiomis vertybėmis ir visuomenės interesais.
- Pagrindiniai forumo tikslai yra geriausios praktikos kūrimas, dalijimasis informacija, DI saugos tyrimų tobulinimas ir bendradarbiavimas su suinteresuotosiomis šalimis siekiant sutarimo DI kūrimo klausimais. Narystės gali gauti organizacijos, įsipareigojusios atsakingai plėtoti AI.
Istorija byloja, kai įmonės, net kai jos yra konkurentės, yra suinteresuotos spręsti iššūkius, jos dirba kartu, kad juos spręstų. O „Google“, „Microsoft“, „OpenAI“ ir „Anthropic“ bendros problemos, kurios juos sujungia, yra iššūkiai ir galima rizika, kurią šios įmonės vadina „paribiais AI modeliais“. Bendrame pareiškime „Google“, „Microsoft“, „OpenAI“ ir „Anthropic“ paskelbė „Frontier Model Forum“ – naują pramonės įstaigą, kuri reklamuoja saugius ir atsakingus AI modelius.
Pokalbių robotai ir AI paslaugos, pvz ChatGPT, Bing Chat, ir Bardas specializuojasi atlikti konkrečias užduotis ir nėra įgiję žmogaus lygio intelekto. Tačiau vis labiau baiminamasi, kad jis netrukus gali įgauti nuovoką ir bus visiškai pajėgus veikti prieš didesnį visuomenės interesą. Kaip paaiškinta jungtyje pareiškimas, frontier modeliai yra didelio masto mašininio mokymosi modeliai, kurie yra daug pažangesni nei esamų modelių galimybės ir todėl gali atlikti įvairias užduotis. Atsižvelgdamas į su tuo susijusią riziką, forumas nori įdiegti tvirtus mechanizmus, kad šie modeliai būtų labiau suderinti su žmogiškosiomis vertybėmis ir būtų naudingi žmonių interesams.
Pagrindiniai forumo tikslai bus nustatyti geriausią dirbtinio intelekto kūrimo ir diegimo praktiką modelius, palengvina dalijimąsi informacija tarp įmonių ir vyriausybių ir gerina dirbtinio intelekto saugumą tyrimai. Dalis AI saugos tyrimų apims skirtingų AI modelių testavimą ir palyginimą bei etalonų paskelbimą. viešojoje bibliotekoje, kad kiekvienas pagrindinis pramonės veikėjas suprastų galimą riziką ir imtųsi veiksmų, kad pašalintų juos.
Pasienio modelių forumas įsteigs patariamąją tarybą, kurią sudarys skirtingų sluoksnių ir perspektyvų žaidėjai, kad nustatytų strategijas ir prioritetus. Be to, steigiančios įmonės taip pat sudarys institucinius susitarimus, kad visos suinteresuotosios šalys galėtų bendradarbiauti, kad būtų pasiektas sutarimas dėl AI plėtros klausimų. Forume taip pat bus panaudotos turimos žinios ir ištekliai, kuriuos jau pateikė pilietinės visuomenės grupės, mokslininkai ir kiti. Ji mokysis ir rems esamas AI iniciatyvas, tokias kaip Partnerystė dėl AI ir MLCommons, kad būtų praktiškai įgyvendinamos nustatytos gairės.
„Frontier Model Forum“ taip pat siūlo narystes organizacijoms, tvirtai įsipareigojusioms laikytis atsakingų paribių AI modelių kūrimo ir diegimo taisyklių.