Google, Microsoft, OpenAI und Anthropic haben sich zusammengeschlossen, um potenzielle Risiken und Herausforderungen von „Frontier-KI-Modellen“ anzugehen.
Die zentralen Thesen
- Google, Microsoft, OpenAI und Anthropic haben sich durch die Gründung des Frontier Model Forums zusammengeschlossen, um die Herausforderungen und potenziellen Risiken anzugehen, die von „Frontier-KI-Modellen“ ausgehen.
- Grenzmodelle sind fortschrittlicher als bestehende KI-Modelle und können ein breites Spektrum an Aufgaben erfüllen, was Bedenken hinsichtlich ihrer Übereinstimmung mit menschlichen Werten und öffentlichem Interesse aufkommen lässt.
- Zu den Hauptzielen des Forums gehören die Entwicklung bewährter Verfahren, der Austausch von Informationen, die Weiterentwicklung der KI-Sicherheitsforschung und die Zusammenarbeit mit Interessengruppen, um einen Konsens über Fragen der KI-Entwicklung zu erzielen. Mitgliedschaften stehen Organisationen zur Verfügung, die sich für eine verantwortungsvolle KI-Entwicklung einsetzen.
Die Geschichte lehrt uns, dass Unternehmen, selbst wenn sie Konkurrenten sind, ein gemeinsames Interesse an der Bewältigung von Herausforderungen haben und zusammenarbeiten, um diese zu bewältigen. Und für Google, Microsoft, OpenAI und Anthropic sind die gemeinsamen Probleme, die sie zusammenbringen, die Herausforderungen und potenziellen Risiken dessen, was diese Unternehmen als „Frontier-KI-Modelle“ bezeichnen. In einer gemeinsamen Erklärung kündigten Google, Microsoft, OpenAI und Anthropic das „Frontier Model Forum“ an, ein neues Branchengremium zur Förderung sicherer und verantwortungsvoller Frontier-KI-Modelle.
Chatbots und KI-Dienste mögen ChatGPT, Bing-Chat, Und Barde Sie sind auf die Ausführung bestimmter Aufgaben spezialisiert und verfügen nicht über Intelligenz auf menschlichem Niveau. Es besteht jedoch eine wachsende Befürchtung, dass es bald an Bedeutung gewinnen und die volle Macht entfalten könnte, um gegen das größere öffentliche Interesse vorzugehen. Wie im Joint erklärt StellungnahmeBei Frontier-Modellen handelt es sich um groß angelegte Modelle für maschinelles Lernen, die weit über die Fähigkeiten bestehender Modelle hinausgehen und daher eine Vielzahl von Aufgaben ausführen können. Und angesichts der damit verbundenen Risiken möchte das Forum robuste Mechanismen einführen, um sicherzustellen, dass diese Modelle besser an menschlichen Werten ausgerichtet sind und darauf hinarbeiten, den besten Interessen der Menschen zu dienen.
Die Hauptziele des Forums werden darin bestehen, Best Practices für die Entwicklung und den Einsatz von KI zu ermitteln Modelle, erleichtern den Informationsaustausch zwischen Unternehmen und Regierungen und verbessern die KI-Sicherheit Forschung. Ein Teil der KI-Sicherheitsforschung wird das Testen und Vergleichen verschiedener KI-Modelle sowie die Veröffentlichung der Benchmarks umfassen In einer öffentlichen Bibliothek können alle wichtigen Akteure der Branche die potenziellen Risiken verstehen und Maßnahmen zur Beseitigung ergreifen ihnen.
Das Frontier Model Forum wird einen Beirat einrichten, der aus Akteuren mit unterschiedlichem Hintergrund und unterschiedlichen Perspektiven besteht, um Strategien und Prioritäten festzulegen. Darüber hinaus werden Gründungsunternehmen auch institutionelle Vereinbarungen treffen, damit alle Beteiligten zusammenarbeiten können, um einen Konsens über Fragen der KI-Entwicklung zu erzielen. Das Forum wird auch das vorhandene Wissen und die Ressourcen nutzen, die bereits von Gruppen der Zivilgesellschaft, Forschern und anderen bereitgestellt wurden. Es wird bestehende KI-Initiativen wie Partnership on AI und MLCommons bei der praktischen Umsetzung der darin festgelegten Richtlinien kennenlernen und unterstützen.
Das Frontier Model Forum bietet auch Mitgliedschaften für Organisationen an, die sich fest für die Einhaltung von Regeln für die Entwicklung und Bereitstellung verantwortungsvoller Frontier-KI-Modelle einsetzen.