Google, Microsoft 등은 책임감 있는 AI 개발을 촉진하기 위해 새로운 포럼을 시작합니다.

click fraud protection

Google, Microsoft, OpenAI, Anthropic이 함께 모여 "최첨단 AI 모델"의 잠재적인 위험과 과제를 해결했습니다.

주요 시사점

  • Google, Microsoft, OpenAI 및 Anthropic은 프론티어 모델 포럼(Frontier Model Forum) 창설을 통해 "프론티어 AI 모델"이 제기하는 과제와 잠재적 위험을 해결하기 위해 함께 모였습니다.
  • 프론티어 모델은 기존 AI 모델보다 더 발전해 광범위한 작업을 수행할 수 있어 인간의 가치와 공익과의 부합 여부에 대한 우려가 제기된다.
  • 포럼의 핵심 목표에는 모범 사례 개발, 정보 공유, AI 안전 연구 발전, 이해관계자와 협력하여 AI 개발 문제에 대한 합의 구축이 포함됩니다. 책임감 있는 AI 개발에 전념하는 조직에는 멤버십이 제공됩니다.

역사는 기업이 경쟁사일지라도 문제 해결에 관심을 공유하고 이를 해결하기 위해 협력한다는 사실을 보여줍니다. 그리고 Google, Microsoft, OpenAI 및 Anthropic의 경우 이들을 하나로 묶는 공통 문제는 이러한 회사가 "최초의 AI 모델"이라고 부르는 문제와 잠재적 위험입니다. Google, Microsoft, OpenAI 및 Anthropic은 공동 성명을 통해 안전하고 책임감 있는 프론티어 AI 모델을 홍보하기 위한 새로운 산업 단체인 '프론티어 모델 포럼'을 발표했습니다.

챗봇과 AI 서비스 등 채팅GPT, 빙 채팅, 그리고 음유 시인 특정 작업 수행을 전문으로 하며 인간 수준의 지능을 얻지 못했습니다. 그러나 그것이 곧 지각력을 갖게 되어 더 큰 공익에 반하는 행동을 할 가능성이 커질 것이라는 두려움이 커지고 있습니다. 조인트에서 설명했듯이 성명프론티어 모델은 기존 모델의 기능보다 훨씬 발전된 대규모 기계 학습 모델이므로 다양한 작업을 수행할 수 있습니다. 그리고 관련된 위험을 고려하여 포럼은 이러한 모델이 인간의 가치와 더욱 일치하고 사람들의 최선의 이익을 제공하기 위해 노력할 수 있도록 강력한 메커니즘을 도입하기를 원합니다.

포럼의 핵심 목표는 AI 개발 및 배포를 위한 모범 사례를 식별하는 것입니다. 모델을 만들고, 기업과 정부 간 정보 공유를 촉진하고, AI 안전성을 향상시킵니다. 연구. AI 안전 연구의 일부에는 다양한 AI 모델을 테스트 및 비교하고 벤치마크 게시가 포함됩니다. 모든 주요 업계 관계자가 공공 도서관에서 잠재적인 위험을 이해하고 이를 제거하기 위한 조치를 취할 수 있습니다. 그들을.

프론티어 모델 포럼은 전략과 우선순위를 정하기 위해 다양한 배경과 관점을 가진 참여자로 구성된 자문위원회를 구성할 것입니다. 아울러, 창업회사들은 모든 이해관계자들이 협력하여 AI 개발과 관련된 이슈에 대한 합의를 도출할 수 있는 제도적 장치도 마련할 것입니다. 또한 포럼은 시민사회단체, 연구자 등이 이미 제시한 기존 지식과 자원을 활용할 것입니다. AI 파트너십, MLCommons 등 기존 AI 이니셔티브를 학습하고 지원하여 가이드라인의 실제 구현을 지원합니다.

프론티어 모델 포럼은 또한 책임 있는 프론티어 AI 모델을 개발하고 배포하기 위한 규칙을 준수하기 위해 확고히 노력하는 조직에 멤버십을 제공합니다.