Google, Microsoft, OpenAI a Anthropic se spojily, aby řešily potenciální rizika a výzvy „hraničních modelů umělé inteligence“.
Klíčové věci
- Google, Microsoft, OpenAI a Anthropic se spojily, aby řešily výzvy a potenciální rizika, která představují „modely hraniční umělé inteligence“, vytvořením fóra Frontier Model Forum.
- Hraniční modely jsou pokročilejší než stávající modely umělé inteligence a mohou plnit širokou škálu úkolů, což vyvolává obavy ohledně jejich souladu s lidskými hodnotami a veřejným zájmem.
- Mezi hlavní cíle fóra patří vývoj osvědčených postupů, sdílení informací, pokrok ve výzkumu bezpečnosti umělé inteligence a spolupráce se zúčastněnými stranami za účelem dosažení konsenzu v otázkách vývoje umělé inteligence. Členství je k dispozici pro organizace, které se zavázaly k odpovědnému vývoji AI.
Historie nám říká, že když společnosti, i když jsou konkurenty, mají společný zájem na řešení problémů, spolupracují na jejich řešení. A pro Google, Microsoft, OpenAI a Anthropic jsou společnými problémy, které je spojují, výzvy a potenciální rizika toho, co tyto společnosti nazývají „modely hraniční umělé inteligence“. Společnosti Google, Microsoft, OpenAI a Anthropic ve společném prohlášení oznámily „Frontier Model Forum“, nový oborový orgán na podporu bezpečných a odpovědných modelů hraniční umělé inteligence.
Chatboti a služby AI jako ChatGPT, Bing Chat, a Bard se specializují na provádění konkrétních úkolů a nezískali inteligenci na lidské úrovni. Rostou však obavy, že by mohla brzy získat rozum a bude plně schopná jednat proti většímu veřejnému zájmu. Jak je vysvětleno v kloubu prohlášeníhraniční modely jsou rozsáhlé modely strojového učení, které jsou mnohem pokročilejší než schopnosti stávajících modelů, a proto mohou provádět širokou škálu úkolů. A vzhledem k souvisejícím rizikům chce Fórum zavést robustní mechanismy, které zajistí, že tyto modely budou více v souladu s lidskými hodnotami a budou sloužit nejlepším zájmům lidí.
Hlavním cílem fóra bude identifikovat osvědčené postupy pro vývoj a zavádění umělé inteligence modely, usnadňují sdílení informací mezi společnostmi a vládami a zvyšují bezpečnost AI výzkum. Součástí výzkumu bezpečnosti umělé inteligence bude testování a porovnávání různých modelů umělé inteligence a zveřejňování referenčních hodnot ve veřejné knihovně pro každého klíčového hráče v oboru, aby pochopil potenciální rizika a jednal směřující k jejich eliminaci jim.
Frontier Model Forum zřídí poradní výbor složený z hráčů z různých prostředí a perspektiv, aby určili strategie a priority. Kromě toho zakládající společnosti také vytvoří institucionální uspořádání pro všechny zúčastněné strany, aby spolupracovaly na budování konsenzu v otázkách vývoje AI. Fórum rovněž využije stávající znalosti a zdroje, které již předložily skupiny občanské společnosti, výzkumní pracovníci a další. Naučí se a podpoří stávající iniciativy AI, jako je Partnership on AI a MLCommons, pro praktickou implementaci pokynů, které je stanoví.
Frontier Model Forum také nabízí členství organizacím pevně oddaným dodržování pravidel pro vývoj a nasazení odpovědných hraničních modelů umělé inteligence.