Google, Microsoft та інші створюють новий форум для сприяння відповідальній розробці ШІ

click fraud protection

Google, Microsoft, OpenAI і Anthropic об’єдналися, щоб подолати потенційні ризики та виклики «передових моделей ШІ».

Ключові висновки

  • Google, Microsoft, OpenAI і Anthropic об’єдналися, щоб вирішити проблеми та потенційні ризики, пов’язані з «передовими моделями штучного інтелекту», створивши Форум передової моделі.
  • Граничні моделі є більш досконалими, ніж існуючі моделі штучного інтелекту, і можуть виконувати широкий спектр завдань, що викликає занепокоєння щодо їх відповідності людським цінностям і суспільним інтересам.
  • Основні цілі Форуму включають розвиток найкращих практик, обмін інформацією, просування досліджень безпеки штучного інтелекту та співпрацю із зацікавленими сторонами для досягнення консенсусу щодо питань розробки штучного інтелекту. Членство доступне для організацій, які займаються відповідальною розробкою ШІ.

Історія говорить нам, коли компанії, навіть коли вони є конкурентами, мають спільний інтерес у вирішенні викликів, вони працюють разом, щоб їх вирішити. А для Google, Microsoft, OpenAI та Anthropic спільними проблемами, які об’єднують їх, є виклики та потенційні ризики того, що ці компанії називають «передовими моделями ШІ». У спільній заяві Google, Microsoft, OpenAI і Anthropic оголосили про створення «Frontier Model Forum» нового галузевого органу для просування безпечних і відповідальних передових моделей ШІ.

Чат-боти та такі сервіси, як ШІ ChatGPT, Чат Bing, і Бард спеціалізуються на виконанні конкретних завдань і не набули інтелекту людського рівня. Але зростає побоювання, що незабаром він може набути розуму і матиме повну силу діяти проти ширших суспільних інтересів. Як пояснили в совм заяваграничні моделі — це великомасштабні моделі машинного навчання, які набагато розвиненіші за можливості існуючих моделей і, отже, можуть виконувати широкий спектр завдань. І враховуючи пов’язані з цим ризики, Форум хоче запровадити надійні механізми, які б гарантували, що ці моделі більше відповідають людським цінностям і працюють на найкраще обслуговування інтересів людей.

Основними цілями Форуму буде визначення найкращих практик для розробки та розгортання ШІ моделі, сприяти обміну інформацією між компаніями та урядами, а також покращувати безпеку ШІ дослідження. Частина досліджень безпеки ШІ включатиме тестування та порівняння різних моделей ШІ та публікацію тестів у публічній бібліотеці для кожного ключового гравця галузі, щоб зрозуміти потенційні ризики та діяти в напрямку їх усунення їх.

Frontier Model Forum створить Консультативну раду, до складу якої ввійдуть гравці з різним рівнем досвіду та точок зору для визначення стратегій і пріоритетів. Крім того, компанії-засновники також створять інституційні механізми для співпраці всіх зацікавлених сторін для досягнення консенсусу щодо питань, що стосуються розробки ШІ. Форум також використовуватиме наявні знання та ресурси, які вже були представлені групами громадянського суспільства, дослідниками та іншими. Він буде вивчати та підтримувати існуючі ініціативи AI, такі як Partnership on AI та MLCommons, для практичної реалізації керівних принципів, які вони встановлюють.

Frontier Model Forum також пропонує членство організаціям, які твердо віддані дотриманню правил розробки та розгортання відповідальних передових моделей ШІ.