Google, Microsoft e outros lançam novo fórum para promover o desenvolvimento responsável de IA

Google, Microsoft, OpenAI e Anthropic se uniram para enfrentar riscos e desafios potenciais de “modelos de IA de fronteira”.

Principais conclusões

  • Google, Microsoft, OpenAI e Anthropic uniram-se para enfrentar os desafios e riscos potenciais apresentados pelos “modelos de IA de fronteira” através da criação do Frontier Model Forum.
  • Os modelos de fronteira são mais avançados do que os modelos de IA existentes e podem realizar uma vasta gama de tarefas, levantando preocupações sobre o seu alinhamento com os valores humanos e o interesse público.
  • Os objetivos principais do Fórum incluem o desenvolvimento de melhores práticas, o compartilhamento de informações, o avanço da pesquisa sobre segurança de IA e a colaboração com as partes interessadas para construir consenso sobre questões de desenvolvimento de IA. As associações estão disponíveis para organizações comprometidas com o desenvolvimento responsável de IA.

A história diz-nos que quando as empresas, mesmo quando são concorrentes, têm um interesse comum em enfrentar desafios, trabalham em conjunto para os enfrentar. E para Google, Microsoft, OpenAI e Anthropic, as questões comuns que as unem são os desafios e riscos potenciais do que essas empresas chamam de “modelos de IA de fronteira”. Em uma declaração conjunta, Google, Microsoft, OpenAI e Anthropic anunciaram o “Frontier Model Forum”, um novo órgão da indústria para promover modelos de IA de fronteira seguros e responsáveis.

Chatbots e serviços de IA como Bate-papoGPT, Bate-papo do Bing, e Bardo especializam-se na execução de tarefas específicas e não adquiriram inteligência de nível humano. Mas há um receio crescente de que em breve possa ganhar consciência e ser totalmente potente para agir contra o interesse público mais amplo. Como explicado na articulação declaração, os modelos de fronteira são modelos de aprendizado de máquina em larga escala que são muito mais avançados do que as capacidades dos modelos existentes e, portanto, podem executar uma ampla variedade de tarefas. E dados os riscos envolvidos, o Fórum pretende introduzir mecanismos robustos para garantir que estes modelos estejam mais alinhados com os valores humanos e trabalhem no sentido de servir os melhores interesses das pessoas.

Os principais objetivos do Fórum serão identificar as melhores práticas para o desenvolvimento e implantação de IA modelos, facilitar o compartilhamento de informações entre empresas e governos e promover a segurança da IA pesquisar. Parte da pesquisa de segurança de IA incluirá testes e comparação de diferentes modelos de IA e publicação de benchmarks em uma biblioteca pública para que todos os principais participantes da indústria compreendam os riscos potenciais e ajam no sentido de eliminar eles.

O Frontier Model Forum estabelecerá um Conselho Consultivo composto por atores de diferentes origens e perspectivas para definir estratégias e prioridades. Além disso, as empresas fundadoras também formarão acordos institucionais para que todas as partes interessadas colaborem para construir um consenso sobre questões relativas ao desenvolvimento da IA. O Fórum também aproveitará o conhecimento e os recursos existentes já apresentados por grupos da sociedade civil, investigadores e outros. Irá aprender e apoiar iniciativas de IA existentes, como a Parceria sobre IA e o MLCommons, para a implementação prática das diretrizes que as definem.

O Frontier Model Forum também oferece associações a organizações firmemente comprometidas em aderir às regras para desenvolver e implantar modelos de IA de fronteira responsáveis.