Google, Microsoft, OpenAI и Anthropic объединились, чтобы устранить потенциальные риски и проблемы «передовых моделей искусственного интеллекта».
Ключевые выводы
- Google, Microsoft, OpenAI и Anthropic объединились, чтобы решить проблемы и потенциальные риски, связанные с «передовыми моделями ИИ», путем создания Frontier Model Forum.
- Модели Frontier более совершенны, чем существующие модели искусственного интеллекта, и могут выполнять широкий спектр задач, что вызывает обеспокоенность по поводу их соответствия человеческим ценностям и общественным интересам.
- Основные цели Форума включают разработку передового опыта, обмен информацией, продвижение исследований в области безопасности ИИ и сотрудничество с заинтересованными сторонами для достижения консенсуса по вопросам развития ИИ. Членство доступно для организаций, приверженных ответственной разработке искусственного интеллекта.
История говорит нам, что когда компании, даже если они являются конкурентами, имеют общий интерес в решении проблем, они работают вместе для их решения. А для Google, Microsoft, OpenAI и Anthropic общими проблемами, которые их объединяют, являются проблемы и потенциальные риски того, что эти компании называют «передовыми моделями ИИ». В совместном заявлении Google, Microsoft, OpenAI и Anthropic объявили о создании «Frontier Model Forum» — новой отраслевой организации, занимающейся продвижением безопасных и ответственных передовых моделей ИИ.
Чат-боты и сервисы искусственного интеллекта, такие как ЧатGPT, Чат Bing, и Бард специализируются на выполнении конкретных задач и не обладают интеллектом человеческого уровня. Но растет опасение, что вскоре оно может обрести разум и будет в полной мере способно действовать против более широких общественных интересов. Как поясняется в совместном заявление, пограничные модели — это крупномасштабные модели машинного обучения, которые намного более совершенны, чем возможности существующих моделей, и, следовательно, могут выполнять широкий спектр задач. А учитывая связанные с этим риски, Форум хочет внедрить надежные механизмы, обеспечивающие большее соответствие этих моделей человеческим ценностям и их работу в интересах людей.
Основными целями форума будут выявление лучших практик разработки и внедрения ИИ. модели, облегчают обмен информацией между компаниями и правительствами и повышают безопасность ИИ. исследовать. Часть исследования безопасности ИИ будет включать тестирование и сравнение различных моделей ИИ, а также публикацию тестов. в публичной библиотеке, чтобы каждый ключевой игрок отрасли мог понять потенциальные риски и принять меры по устранению их.
Frontier Model Forum создаст Консультативный совет, состоящий из игроков с разным опытом и взглядами, для определения стратегий и приоритетов. Помимо этого, компании-учредители также сформируют институциональные механизмы для сотрудничества всех заинтересованных сторон для достижения консенсуса по вопросам, касающимся развития ИИ. Форум также будет использовать существующие знания и ресурсы, уже предложенные группами гражданского общества, исследователями и другими лицами. Он будет изучать и поддерживать существующие инициативы в области ИИ, такие как Партнерство по ИИ и MLCommons, для практической реализации установленных ими руководящих принципов.
Форум Frontier Model Forum также предлагает членство организациям, твердо приверженным соблюдению правил разработки и внедрения ответственных передовых моделей ИИ.