Google, Microsoft, OpenAI a Anthropic sa spojili, aby riešili potenciálne riziká a výzvy „modelov umelej inteligencie na hraniciach“.
Kľúčové informácie
- Google, Microsoft, OpenAI a Anthropic sa spojili, aby riešili výzvy a potenciálne riziká, ktoré predstavujú „modely umelej inteligencie na hraniciach“ vytvorením fóra Frontier Model Forum.
- Hraničné modely sú pokročilejšie ako existujúce modely AI a môžu vykonávať širokú škálu úloh, čo vyvoláva obavy z ich súladu s ľudskými hodnotami a verejným záujmom.
- Medzi hlavné ciele fóra patrí vývoj osvedčených postupov, zdieľanie informácií, pokrok vo výskume bezpečnosti AI a spolupráca so zainteresovanými stranami s cieľom dosiahnuť konsenzus v otázkach vývoja AI. Členstvo je dostupné pre organizácie, ktoré sa zaviazali k zodpovednému vývoju AI.
História nám hovorí, že keď spoločnosti, aj keď sú konkurentmi, majú spoločný záujem riešiť výzvy, spolupracujú na ich riešení. A pre Google, Microsoft, OpenAI a Anthropic sú spoločné problémy, ktoré ich spájajú, výzvy a potenciálne riziká toho, čo tieto spoločnosti nazývajú „modely umelej inteligencie na hraniciach“. V spoločnom vyhlásení spoločnosti Google, Microsoft, OpenAI a Anthropic oznámili „Frontier Model Forum“, nový priemyselný orgán na podporu bezpečných a zodpovedných modelov umelej inteligencie na hraniciach.
Chatboti a služby AI ako ChatGPT, Bing Chat, a Bard sa špecializujú na vykonávanie špecifických úloh a nezískali inteligenciu na ľudskej úrovni. Rastie však obava, že by mohla čoskoro získať vedomie a bude plne schopná konať proti väčšiemu verejnému záujmu. Ako je vysvetlené v kĺbe vyhláseniehraničné modely sú rozsiahle modely strojového učenia, ktoré sú oveľa pokročilejšie ako možnosti existujúcich modelov, a preto môžu vykonávať širokú škálu úloh. A vzhľadom na súvisiace riziká chce Fórum zaviesť robustné mechanizmy, ktoré zabezpečia, že tieto modely budú viac v súlade s ľudskými hodnotami a budú slúžiť najlepším záujmom ľudí.
Hlavným cieľom fóra bude identifikovať najlepšie postupy pre vývoj a nasadenie AI modely, uľahčujú zdieľanie informácií medzi spoločnosťami a vládami a zvyšujú bezpečnosť AI výskumu. Súčasťou výskumu bezpečnosti AI bude testovanie a porovnávanie rôznych modelov AI a zverejňovanie referenčných hodnôt vo verejnej knižnici pre každého kľúčového priemyselného hráča, aby pochopil potenciálne riziká a konal na ich odstránenie ich.
Frontier Model Forum zriadi poradný výbor pozostávajúci z hráčov z rôznych prostredí a perspektív, aby určili stratégie a priority. Okrem toho zakladajúce spoločnosti vytvoria inštitucionálne opatrenia pre všetky zainteresované strany, aby spolupracovali na budovaní konsenzu v otázkach vývoja AI. Fórum tiež využije existujúce poznatky a zdroje, ktoré už predložili skupiny občianskej spoločnosti, výskumníci a iní. Naučí sa a podporí existujúce iniciatívy AI, ako napríklad Partnerstvo pre AI a MLCommons, na praktickú implementáciu ich stanovených pokynov.
Frontier Model Forum tiež ponúka členstvo organizáciám, ktoré sa pevne zaviazali dodržiavať pravidlá vývoja a nasadenia zodpovedných modelov hraničnej umelej inteligencie.