Google, Microsoft et d'autres lancent un nouveau forum pour promouvoir le développement responsable de l'IA

click fraud protection

Google, Microsoft, OpenAI et Anthropic se sont réunis pour faire face aux risques et défis potentiels des « modèles d'IA frontières ».

Points clés à retenir

  • Google, Microsoft, OpenAI et Anthropic se sont réunis pour relever les défis et les risques potentiels posés par les « modèles d'IA frontaliers » grâce à la création du Frontier Model Forum.
  • Les modèles Frontier sont plus avancés que les modèles d’IA existants et peuvent effectuer un large éventail de tâches, ce qui soulève des inquiétudes quant à leur alignement avec les valeurs humaines et l’intérêt public.
  • Les principaux objectifs du Forum comprennent le développement de meilleures pratiques, le partage d'informations, l'avancement de la recherche sur la sécurité de l'IA et la collaboration avec les parties prenantes pour parvenir à un consensus sur les questions de développement de l'IA. Les adhésions sont disponibles pour les organisations engagées dans le développement responsable de l’IA.

L'histoire nous apprend que lorsque des entreprises, même concurrentes, ont un intérêt commun à relever des défis, elles travaillent ensemble pour les relever. Et pour Google, Microsoft, OpenAI et Anthropic, les problèmes communs qui les rassemblent sont les défis et les risques potentiels de ce que ces entreprises appellent les « modèles d'IA frontières ». Dans une déclaration commune, Google, Microsoft, OpenAI et Anthropic ont annoncé le « Frontier Model Forum », un nouvel organisme industriel visant à promouvoir des modèles d'IA frontaliers sûrs et responsables.

Chatbots et services d'IA comme ChatGPT, Chat Bing, et Barde se spécialisent dans l’exécution de tâches spécifiques et n’ont pas acquis d’intelligence au niveau humain. Mais on craint de plus en plus qu’elle ne devienne bientôt sensible et qu’elle soit pleinement puissante pour agir contre l’intérêt public dans son ensemble. Comme expliqué dans le joint déclaration, les modèles frontières sont des modèles d'apprentissage automatique à grande échelle qui sont bien plus avancés que les capacités des modèles existants et peuvent donc effectuer une grande variété de tâches. Et compte tenu des risques encourus, le Forum souhaite mettre en place des mécanismes solides pour garantir que ces modèles sont davantage alignés sur les valeurs humaines et visent à servir les meilleurs intérêts des personnes.

Les principaux objectifs du Forum seront d'identifier les meilleures pratiques pour développer et déployer l'IA. modèles, faciliter le partage d’informations entre les entreprises et les gouvernements et faire progresser la sécurité de l’IA recherche. Une partie de la recherche sur la sécurité de l'IA comprendra le test et la comparaison de différents modèles d'IA et la publication des références. dans une bibliothèque publique pour que chaque acteur clé de l'industrie comprenne les risques potentiels et agisse pour les éliminer. eux.

Le Frontier Model Forum établira un conseil consultatif composé d’acteurs d’horizons et de perspectives différents pour définir des stratégies et des priorités. En plus de cela, les entreprises fondatrices concluront également des arrangements institutionnels permettant à toutes les parties prenantes de collaborer pour construire un consensus sur les questions concernant le développement de l’IA. Le Forum tirera également parti des connaissances et des ressources existantes déjà mises en avant par des groupes de la société civile, des chercheurs et autres. Il apprendra et soutiendra les initiatives d'IA existantes, telles que le Partenariat sur l'IA et MLCommons, pour la mise en œuvre pratique des lignes directrices qui les définissent.

Le Frontier Model Forum propose également l’adhésion à des organisations fermement engagées à adhérer aux règles de développement et de déploiement de modèles d’IA frontaliers responsables.