Google, Microsoft и други стартират нов форум за насърчаване на отговорното развитие на AI

click fraud protection

Google, Microsoft, OpenAI и Anthropic се обединиха, за да се справят с потенциалните рискове и предизвикателства на „граничните модели на ИИ“.

Ключови изводи

  • Google, Microsoft, OpenAI и Anthropic се обединиха, за да се справят с предизвикателствата и потенциалните рискове, породени от „граничните модели на ИИ“ чрез създаването на Frontier Model Forum.
  • Граничните модели са по-напреднали от съществуващите AI модели и могат да изпълняват широк набор от задачи, което поражда опасения относно съответствието им с човешките ценности и обществения интерес.
  • Основните цели на форума включват разработване на най-добри практики, споделяне на информация, напредък в изследванията за безопасност на ИИ и сътрудничество със заинтересованите страни за постигане на консенсус по въпросите на развитието на ИИ. Членството е достъпно за организации, ангажирани с отговорно развитие на ИИ.

Историята ни казва, че когато компаниите, дори когато са конкуренти, имат общ интерес да се справят с предизвикателствата, те работят заедно, за да се справят с тях. А за Google, Microsoft, OpenAI и Anthropic общите проблеми, които ги обединяват, са предизвикателствата и потенциалните рискове на това, което тези компании наричат ​​„гранични модели на ИИ“. В съвместно изявление Google, Microsoft, OpenAI и Anthropic обявиха "Frontier Model Forum", нов индустриален орган за насърчаване на безопасни и отговорни гранични модели на AI.

Чатботове и AI услуги като ChatGPT, Чат в Bing, и Бард са специализирани в изпълнението на конкретни задачи и не са придобили интелект на човешко ниво. Но има нарастващ страх, че скоро може да придобие разум и ще бъде напълно мощен да действа срещу по-широкия обществен интерес. Както е обяснено в ставата изявление, граничните модели са широкомащабни модели за машинно обучение, които са много по-напреднали от възможностите на съществуващите модели и следователно могат да изпълняват голямо разнообразие от задачи. И предвид свързаните рискове, Форумът иска да въведе стабилни механизми, за да гарантира, че тези модели са в по-голямо съответствие с човешките ценности и работят за обслужване на най-добрите интереси на хората.

Основните цели на форума ще бъдат да се идентифицират най-добрите практики за разработване и внедряване на AI модели, улесняват споделянето на информация между компании и правителства и подобряват безопасността на ИИ изследвания. Част от изследването на безопасността на ИИ ще включва тестване и сравняване на различни модели на ИИ и публикуване на показателите в обществена библиотека за всеки ключов играч в индустрията, за да разбере потенциалните рискове и да действа за елиминирането им тях.

Форумът на Frontier Model ще създаде консултативен съвет, състоящ се от играчи от различни среди и гледни точки, които да начертаят стратегии и приоритети. Освен това компаниите-учредители ще създадат институционални договорености за сътрудничество между всички заинтересовани страни, за да изградят консенсус по въпроси, свързани с развитието на ИИ. Форумът също така ще използва съществуващите знания и ресурси, които вече са предложени от групи на гражданското общество, изследователи и други. Той ще научи и ще подкрепи съществуващи инициативи за AI, като Partnership on AI и MLCommons, за практическото прилагане на насоките, които ги определят.

Frontier Model Forum също така предлага членство в организации, които са твърдо ангажирани да спазват правилата за разработване и внедряване на отговорни гранични AI модели.