Google、Microsoft、その他が責任ある AI 開発を促進するための新しいフォーラムを立ち上げる

click fraud protection

Google、Microsoft、OpenAI、Anthropic は、「フロンティア AI モデル」の潜在的なリスクと課題に対処するために協力しました。

重要なポイント

  • Google、Microsoft、OpenAI、Anthropic は、フロンティア モデル フォーラムの設立を通じて、「フロンティア AI モデル」によってもたらされる課題と潜在的なリスクに対処するために結集しました。
  • フロンティア モデルは既存の AI モデルよりも高度であり、幅広いタスクを実行できるため、人間の価値観や公共の利益との整合性について懸念が生じています。
  • フォーラムの主な目的には、ベスト プラクティスの開発、情報の共有、AI の安全性研究の推進、AI 開発の問題に関する合意形成のための関係者との協力が含まれます。 メンバーシップは、責任ある AI 開発に取り組む組織が利用できます。

歴史は、企業がたとえ競合他社であっても、課題に対処するという共通の関心を持っている場合には、協力して課題に対処することを示しています。 そして、Google、Microsoft、OpenAI、Anthropic にとって、これらの企業を結びつける共通の問題は、これらの企業が「フロンティア AI モデル」と呼ぶものの課題と潜在的なリスクです。 Google、Microsoft、OpenAI、Anthropicは共同声明の中で、安全で責任あるフロンティアAIモデルを促進するための新しい業界団体「Frontier Model Forum」を発表した。

チャットボットやAIサービスなど チャットGPT, Bing チャット、 そして 吟遊詩人 特定のタスクを実行することに特化しており、人間レベルの知性を獲得していません。 しかし、それがすぐに感知を獲得し、より大きな公共の利益に反して完全に強力に行動するようになるのではないかという懸念が高まっています。 共同で説明したように、 声明, フロンティア モデルは、既存のモデルの機能よりもはるかに高度な大規模な機械学習モデルであるため、さまざまなタスクを実行できます。 そして、リスクが伴うことを考慮して、フォーラムは、これらのモデルが人間の価値観とより一致していることを確認し、人々の最善の利益に貢献できるよう、堅牢なメカニズムを導入したいと考えています。

フォーラムの主な目的は、AI の開発と導入のベスト プラクティスを特定することです。 モデルを活用し、企業や政府間での情報共有を促進し、AI の安全性を向上させます。 研究。 AI の安全性研究の一環として、さまざまな AI モデルのテストと比較、ベンチマークの公開が含まれます。 すべての主要な業界関係者が潜在的なリスクを理解し、排除に向けて行動できるように公共図書館に設置する 彼ら。

フロンティア モデル フォーラムは、戦略と優先事項を明確にするために、さまざまな背景や視点を持つ関係者で構成される諮問委員会を設立します。 それに加えて、創業企業は、すべての利害関係者が協力して AI 開発に関する問題についての合意を構築するための制度的取り決めも形成します。 このフォーラムでは、市民社会団体や研究者などがすでに提案している既存の知識やリソースも活用します。 Partnership on AI や MLCommons などの既存の AI イニシアチブを学習し、それらが設定したガイドラインを実際に実装するためにサポートします。

フロンティア モデル フォーラムは、責任あるフロンティア AI モデルを開発および展開するためのルールの遵守に熱心に取り組んでいる組織にもメンバーシップを提供します。