Google, Microsoft และอื่นๆ เปิดตัวฟอรัมใหม่เพื่อส่งเสริมการพัฒนา AI อย่างมีความรับผิดชอบ

click fraud protection

Google, Microsoft, OpenAI และ Anthropic ได้มารวมตัวกันเพื่อจัดการกับความเสี่ยงและความท้าทายที่อาจเกิดขึ้นจาก "โมเดล AI ระดับแนวหน้า"

ประเด็นที่สำคัญ

  • Google, Microsoft, OpenAI และ Anthropic ได้รวมตัวกันเพื่อจัดการกับความท้าทายและความเสี่ยงที่อาจเกิดขึ้นจาก "โมเดล AI ระดับแนวหน้า" ผ่านการสร้าง Frontier Model Forum
  • โมเดล Frontier มีความก้าวหน้ามากกว่าโมเดล AI ที่มีอยู่ และสามารถทำงานได้หลากหลาย ทำให้เกิดความกังวลเกี่ยวกับความสอดคล้องกับคุณค่าของมนุษย์และผลประโยชน์สาธารณะ
  • วัตถุประสงค์หลักของฟอรัม ได้แก่ การพัฒนาแนวปฏิบัติที่ดีที่สุด การแบ่งปันข้อมูล การพัฒนาการวิจัยด้านความปลอดภัยของ AI และการร่วมมือกับผู้มีส่วนได้ส่วนเสียเพื่อสร้างฉันทามติในประเด็นการพัฒนา AI มีการเป็นสมาชิกสำหรับองค์กรที่มุ่งมั่นในการพัฒนา AI อย่างมีความรับผิดชอบ

ประวัติศาสตร์บอกเราเมื่อบริษัทต่างๆ แม้ว่าจะเป็นคู่แข่งกัน มีความสนใจร่วมกันในการจัดการกับความท้าทาย พวกเขาทำงานร่วมกันเพื่อจัดการกับปัญหาเหล่านั้น และสำหรับ Google, Microsoft, OpenAI และ Anthropic ปัญหาทั่วไปที่นำมารวมกันคือความท้าทายและความเสี่ยงที่อาจเกิดขึ้นจากสิ่งที่บริษัทเหล่านี้เรียกว่า "โมเดล AI ระดับแนวหน้า" ในแถลงการณ์ร่วม Google, Microsoft, OpenAI และ Anthropic ได้ประกาศ "Frontier Model Forum" ซึ่งเป็นองค์กรอุตสาหกรรมใหม่เพื่อส่งเสริมโมเดล AI ชายแดนที่ปลอดภัยและมีความรับผิดชอบ

Chatbots และบริการ AI เช่น ChatGPT, บิงแชท, และ กวี เชี่ยวชาญในการปฏิบัติงานเฉพาะด้านและไม่ได้รับสติปัญญาระดับมนุษย์ แต่มีความกลัวเพิ่มมากขึ้นว่าอีกไม่นานอาจมีความรู้สึกตัว และจะมีศักยภาพเต็มที่ในการดำเนินการที่ขัดต่อผลประโยชน์สาธารณะที่ใหญ่ขึ้น ตามที่อธิบายไว้ในข้อต่อ คำแถลงโมเดล Frontier คือโมเดลแมชชีนเลิร์นนิงขนาดใหญ่ที่ล้ำหน้ากว่าความสามารถของโมเดลที่มีอยู่มาก ดังนั้นจึงสามารถทำงานได้หลากหลาย และเมื่อพิจารณาถึงความเสี่ยงที่เกี่ยวข้อง ฟอรัมต้องการนำกลไกที่แข็งแกร่งเข้ามาเพื่อให้แน่ใจว่าโมเดลเหล่านี้สอดคล้องกับค่านิยมของมนุษย์และทำงานเพื่อประโยชน์สูงสุดของผู้คนมากขึ้น

วัตถุประสงค์หลักของฟอรัมคือการระบุแนวทางปฏิบัติที่ดีที่สุดสำหรับการพัฒนาและปรับใช้ AI อำนวยความสะดวกในการแบ่งปันข้อมูลระหว่างบริษัทและรัฐบาล และพัฒนาความปลอดภัยด้าน AI วิจัย. ส่วนหนึ่งของการวิจัยด้านความปลอดภัยของ AI จะรวมถึงการทดสอบและเปรียบเทียบโมเดล AI ต่างๆ และการเผยแพร่เกณฑ์มาตรฐาน ในห้องสมุดสาธารณะเพื่อให้ผู้เล่นในอุตสาหกรรมหลักทุกคนเข้าใจถึงความเสี่ยงที่อาจเกิดขึ้นและดำเนินการเพื่อกำจัด พวกเขา.

Frontier Model Forum จะจัดตั้งคณะกรรมการที่ปรึกษาซึ่งประกอบด้วยผู้เล่นจากภูมิหลังและมุมมองที่แตกต่างกัน เพื่อหารือเกี่ยวกับกลยุทธ์และลำดับความสำคัญ นอกจากนี้ บริษัทผู้ก่อตั้งยังจะจัดตั้งการจัดการเชิงสถาบันเพื่อให้ผู้มีส่วนได้ส่วนเสียทั้งหมดร่วมมือกันเพื่อสร้างฉันทามติในประเด็นที่เกี่ยวข้องกับการพัฒนา AI นอกจากนี้ ฟอรัมจะใช้ประโยชน์จากความรู้และทรัพยากรที่มีอยู่ซึ่งกลุ่มประชาสังคม นักวิจัย และคนอื่นๆ นำเสนอไว้แล้ว โดยจะเรียนรู้และสนับสนุนความคิดริเริ่มด้าน AI ที่มีอยู่ เช่น ความร่วมมือด้าน AI และ MLCommons เพื่อการนำแนวทางที่กำหนดไว้ไปใช้ในทางปฏิบัติ

นอกจากนี้ Frontier Model Forum ยังเสนอการเป็นสมาชิกให้กับองค์กรต่างๆ ที่มุ่งมั่นปฏิบัติตามกฎเกณฑ์ในการพัฒนาและปรับใช้โมเดล Frontier AI ที่มีความรับผิดชอบ