Google, Microsoft och andra lanserar ett nytt forum för att främja ansvarsfull AI-utveckling

Google, Microsoft, OpenAI och Anthropic har gått samman för att ta itu med potentiella risker och utmaningar med "frontier AI-modeller".

Viktiga takeaways

  • Google, Microsoft, OpenAI och Anthropic har gått samman för att ta itu med de utmaningar och potentiella risker som "frontier AI-modeller" utgör genom skapandet av Frontier Model Forum.
  • Frontier-modeller är mer avancerade än befintliga AI-modeller och kan utföra ett brett spektrum av uppgifter, vilket ger upphov till oro över deras anpassning till mänskliga värderingar och allmänhetens intresse.
  • Forumets kärnmål inkluderar att utveckla bästa praxis, dela information, främja AI-säkerhetsforskning och att samarbeta med intressenter för att skapa konsensus om AI-utvecklingsfrågor. Medlemskap är tillgängliga för organisationer som engagerar sig i ansvarsfull AI-utveckling.

Historien säger oss att när företag, även när de är konkurrenter, har ett gemensamt intresse av att möta utmaningar, arbetar de tillsammans för att ta itu med dem. Och för Google, Microsoft, OpenAI och Anthropic är de gemensamma frågorna som för dem samman utmaningarna och potentiella riskerna med vad dessa företag kallar "frontier AI-modeller". I ett gemensamt uttalande tillkännagav Google, Microsoft, OpenAI och Anthropic "Frontier Model Forum", ett nytt branschorgan för att främja säkra och ansvarsfulla frontier AI-modeller.

Chatbots och AI-tjänster som ChatGPT, Bing Chat, och Bard specialiserat sig på att utföra specifika uppgifter och har inte fått intelligens på mänsklig nivå. Men det finns en växande rädsla för att den snart kan få kännedom och kommer att vara fullt potent att agera mot det större allmänna intresset. Som förklarat i fogen påstående, frontier-modeller är storskaliga maskininlärningsmodeller som är mycket mer avancerade än kapaciteten hos befintliga modeller och därför kan utföra en mängd olika uppgifter. Och med tanke på de risker som är involverade vill forumet ta in robusta mekanismer för att säkerställa att dessa modeller är mer anpassade till mänskliga värderingar och arbetar för att tjäna människors bästa.

Kärnmålen för forumet kommer att vara att identifiera bästa praxis för att utveckla och distribuera AI modeller, underlätta utbyte av information mellan företag och regeringar och främja AI-säkerhet forskning. En del av AI-säkerhetsforskningen kommer att inkludera att testa och jämföra olika AI-modeller och publicera riktmärken i ett offentligt bibliotek för varje nyckelaktör i branschen att förstå de potentiella riskerna och agera för att eliminera dem.

Frontier Model Forum kommer att inrätta en Advisory Board som består av spelare från olika bakgrunder och perspektiv för att få fram strategier och prioriteringar. Utöver det kommer grundande företag också att bilda institutionella arrangemang för alla intressenter att samarbeta för att skapa en samsyn i frågor som rör AI-utveckling. Forumet kommer också att dra nytta av befintlig kunskap och resurser som redan lagts fram av civilsamhällets grupper, forskare och andra. Den kommer att lära sig och stödja befintliga AI-initiativ, såsom Partnership on AI och MLCommons, för den praktiska implementeringen av riktlinjer som ställts upp för dem.

Frontier Model Forum erbjuder också medlemskap till organisationer som är fast beslutna att följa reglerna för att utveckla och distribuera ansvarsfulla frontier AI-modeller.