Google, Microsoft ve diğerleri sorumlu yapay zeka gelişimini teşvik etmek için yeni bir forum başlattı

Google, Microsoft, OpenAI ve Anthropic, "sınır yapay zeka modellerinin" potansiyel risklerini ve zorluklarını ele almak için bir araya geldi.

Temel Çıkarımlar

  • Google, Microsoft, OpenAI ve Anthropic, Sınır Model Forumu'nun oluşturulması yoluyla "sınır yapay zeka modellerinin" ortaya çıkardığı zorlukları ve potansiyel riskleri ele almak için bir araya geldi.
  • Sınır modelleri, mevcut yapay zeka modellerinden daha gelişmiştir ve çok çeşitli görevleri yerine getirebilir, bu da bunların insani değerlerle ve kamu yararıyla uyumu konusunda endişelere yol açar.
  • Forumun temel hedefleri arasında en iyi uygulamaların geliştirilmesi, bilgi paylaşımı, yapay zeka güvenlik araştırmalarının ilerletilmesi ve yapay zeka geliştirme konularında fikir birliği oluşturmak için paydaşlarla işbirliği yapılması yer alıyor. Sorumlu yapay zeka geliştirmeyi taahhüt eden kuruluşlar için üyelikler mevcuttur.

Tarih bize, şirketlerin, rakip olsalar bile, zorlukların üstesinden gelme konusunda ortak çıkarları olduğunda, bu zorlukların üstesinden gelmek için birlikte çalıştıklarını anlatır. Google, Microsoft, OpenAI ve Anthropic için onları bir araya getiren ortak sorunlar, bu şirketlerin "sınır yapay zeka modelleri" olarak adlandırdıkları zorluklar ve potansiyel risklerdir. Ortak bir bildiriyle Google, Microsoft, OpenAI ve Anthropic, güvenli ve sorumlu öncü yapay zeka modellerini destekleyen yeni bir endüstri kuruluşu olan "Frontier Model Forum"u duyurdu.

Sohbet robotları ve yapay zeka hizmetleri SohbetGPT, Bing Sohbeti, Ve Ozan belirli görevleri yerine getirmede uzmanlaşırlar ve insan düzeyinde zeka kazanmamışlardır. Ancak yakında duyarlılık kazanabileceğine ve daha geniş kamu çıkarına karşı hareket etme gücüne sahip olacağına dair büyüyen bir korku var. Eklemde açıklandığı gibi ifadeSınır modelleri, mevcut modellerin yeteneklerinden çok daha gelişmiş olan ve bu nedenle çok çeşitli görevleri gerçekleştirebilen büyük ölçekli makine öğrenimi modelleridir. İlgili riskler göz önüne alındığında Forum, bu modellerin insani değerlerle daha uyumlu olmasını ve insanların çıkarlarına en iyi şekilde hizmet etmesini sağlamak için sağlam mekanizmalar getirmeyi istiyor.

Forumun temel hedefleri yapay zekayı geliştirmek ve dağıtmak için en iyi uygulamaları belirlemek olacak modeller, şirketler ve hükümetler arasında bilgi paylaşımını kolaylaştırır ve yapay zeka güvenliğini geliştirir araştırma. Yapay zeka güvenlik araştırmasının bir kısmı, farklı yapay zeka modellerinin test edilmesini, karşılaştırılmasını ve kriterlerin yayınlanmasını içerecektir Her önemli sektör oyuncusunun potansiyel riskleri anlaması ve ortadan kaldırmaya yönelik harekete geçmesi için bir halk kütüphanesinde onlara.

Frontier Model Forum, stratejileri ve öncelikleri belirlemek için farklı geçmişlere ve bakış açılarına sahip oyunculardan oluşan bir Danışma Kurulu oluşturacak. Bunun da ötesinde kurucu şirketler, yapay zeka gelişimiyle ilgili konularda fikir birliği oluşturmak amacıyla tüm paydaşların işbirliği yapması için kurumsal düzenlemeler de oluşturacak. Forum aynı zamanda sivil toplum grupları, araştırmacılar ve diğerleri tarafından ileri sürülen mevcut bilgi ve kaynaklardan da yararlanacak. Belirlenen yönergelerin pratik uygulaması için Yapay Zeka Ortaklığı ve MLCommons gibi mevcut yapay zeka girişimlerini öğrenecek ve destekleyecektir.

Frontier Model Forum ayrıca, sorumlu sınır yapay zeka modellerinin geliştirilmesi ve uygulanmasına yönelik kurallara sıkı sıkıya bağlı kalan kuruluşlara üyelik olanağı da sunuyor.